Auteur/autrice : admin

COMMENT FONCTIONNE LE PROCÉDÉ D’IMPRESSION DES CELLULES SOLAIRES DU FRAUNHOFER ?

COMMENT FONCTIONNE LE PROCÉDÉ D’IMPRESSION DES CELLULES SOLAIRES DU FRAUNHOFER ?

Production de cellules solaires à haut niveau

En collaboration avec la société Asys Automatisierungssysteme GmbH, le Fraunhofer ISE a mis au point un procédé de métallisation des cellules solaires en silicium. Grâce à ce procédé, il est possible de produire des cellules solaires dans une installation à haut débit en une fraction du temps précédent. Ce qui profite particulièrement aux plus grands fabricants de modules solaires.  Le revêtement est réalisé à l’aide des procédés de sérigraphie rotative et de flexographie.
L’installation, appelée Rock-Star, fonctionne une fois et demie plus vite que les autres installations, et le débit peut atteindre 8000 pièces par heure. Il est également possible d’utiliser des pièces pour d’autres domaines comme l’électronique de puissance, la technologie de l’hydrogène et les capteurs. Le temps de cycle est réduit à seulement 0,6 seconde par cellule solaire, ce qui représente une énorme amélioration de la gestion du temps par rapport aux 0,9 secondes utilisées jusqu’à présent dans le procédé de sérigraphie à plat.

Fonctionnement de l’installation

L’installation dispose d’un tout nouveau système de transport à haut débit. Lors de la fabrication des composants, les éléments sont transportés sur des navettes à une vitesse et une précision élevées devant des groupes d’impression de Gallus Ferd Rüesch AG, une entreprise de construction mécanique suisse, tout en étant enduits.
Une unité de sérigraphie rotative et une unité d’impression flexographique peuvent être mises en service. Certains procédés d’impression et de revêtement, comme l’héliogravure, peuvent également être intégrés grâce à leur conception. De cette manière, les composants peuvent être transportés à 600 mm/s et imprimés avec précision. Grâce à la métallisation des cellules solaires, les busbars et les grilles de cellules sont fixés sur la cellule solaire par sérigraphie.

Histoire de l’institut Fraunhofer

L’Institut Fraunhofer pour les systèmes énergétiques solaires fait partie de la Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. et se trouve à Fribourg-en-Brisgau. Il a été fondé en 1981 par Adolf Goetzberger. En 1983, l’ISE avait déjà réussi à développer un premier onduleur entièrement électronique. En 1986, le premier produit de série y a vu le jour avec un collecteur fluorescent pour l’alimentation en énergie et en 1989, le premier laboratoire en salle blanche a été ouvert pour le développement de cellules solaires. Depuis 1998, on y fabrique en outre des couches d’absorption solaire sélective pour les capteurs solaires thermiques.
De manière générale, l’institut se consacre à la recherche appliquée et au développement en ingénierie et en sciences naturelles dans le domaine de la technologie solaire et du photovoltaïque. Il existe un site externe à Gelsenkirchen, qui produit des cellules solaires. Avec plus de 1100 employés, l’institut est le plus grand institut de recherche solaire en Europe, son budget s’élève à environ 83,5 millions d’euros.

L’institut Frauenhofer s’étend sur 66 sites et emploie plus de 22.000 personnes en Allemagne. L’installation Rock-Star a été créée par le Dr Florian Clement, qui est le directeur du département Structuration ainsi que Technologie de production et métallisation au Fraunhofer ISE, et est dirigée par lui depuis sa création.

Histoire d’ASYS Automatisierungssysteme GmbH

ASYS Automatisierungssysteme GmbH a été fondée en 1992 comme entreprise de construction mécanique à Dornstadt par Werner Kreibl et Klaus Mang. Elle produit entre autres des imprimantes à pochoir et des sérigraphieuses qui permettent de recouvrir les circuits imprimés de pâte à souder et les cellules solaires de pâte à métalliser. L’entreprise fabrique également des systèmes de manutention pour la production électronique ainsi que des techniques d’automatisation pour la technique médicale et l’industrie pharmaceutique. Le chiffre d’affaires d’ASYS Automatisierungs- GmbH s’élève à environ 151 millions d’euros par an. L’entreprise emploie près de 1300 personnes et couvre environ 75 pour cent de la chaîne de production SMT.

Contribution à la protection du climat

Les cellules solaires, qui peuvent désormais être produites beaucoup plus rapidement, permettent de réduire au moins légèrement le changement climatique. On utilise ici de l’électricité renouvelable au lieu de recourir à des sources d’énergie traditionnelles non renouvelables telles que le pétrole ou le gaz, dont l’utilisation génère plus de dioxyde de carbone dans l’atmosphère que l’électricité renouvelable. Bien entendu, l’accélération de la production de cellules photovoltaïques ne représente qu’une petite contribution à la protection du climat. Mais si de plus en plus de personnes se tournent vers les panneaux solaires, l’effet s’amplifierait jour après jour. Ainsi, avec une participation suffisante, il pourrait suffire de ralentir, voire de stopper le changement climatique provoqué par l’homme.
Révolution dans la production de cellules solaires : l’installation Rock-Star
Avec ses temps de production réduits et son taux de production élevé, l’installation Rock-Star est un atout dans la production de cellules solaires et accélère ainsi la production de cellules solaires en Allemagne et dans le monde entier. Elle contribue de manière non négligeable à stabiliser durablement le climat avec des cellules solaires et d’autres produits et devient ainsi un véritable atout pour le monde.

Photo by Andres Siimon on Unsplash

Qu’est-ce que la Space Valley Ottobrunn ? Domaines de recherche, entreprises, vision

Qu’est-ce que la Space Valley Ottobrunn ? Domaines de recherche, entreprises, vision

Ce qui ressemble d’abord à un nouveau film à grand spectacle est en fait une région de recherche pour l’aéronautique, l’aérospatiale et la géodésie dans l’agglomération de Munich. La Space Valley se compose de différents instituts de recherche de l’Université technique (TU) de Munich et d’entreprises aérospatiales établies, et constitue un environnement unique pour la mise en réseau et la coopération.

La région métropolitaine de Munich comme hub d’innovation

La faculté d’aéronautique, d’aérospatiale et de géodésie (LRG) de l’entreprenante TU de Munich a été créée au printemps 2018. La géodésie est la « science de la mesure et de la représentation de la surface de la Terre ». Les sites de recherche de l’université s’étendent de Taufkirchen/Ottobrunn à Garching en passant par Munich et Oberpfaffenhofen et forment un triangle de recherche orienté vers l’avenir. Taufkirchen/Ottobrunn constitue le siège principal de la nouvelle faculté. Le site de Garching abrite le campus de recherche de l’université technique de Munich, Oberpfaffenhofen l’aéroport de recherche et Munich est le site principal de l’université technique de Munich.

Vision de la Space Valley

La mise en réseau des sites de recherche de la Space Valley doit permettre de regrouper le savoir-faire et de concrétiser la vision d’une région high-tech. Le ministre-président de la Bavière, Markus Söder, a lui aussi assuré le site d’innovation de son soutien total et voit dans la Space Valley le potentiel de devenir le premier site aérospatial d’Europe.

La nouvelle Silicon Valley bavaroise pour la recherche aéronautique et spatiale

Inspiré de la Silicon Valley en Californie, le nom « Space Valley » doit indiquer un site d’innovation avec un échange élevé entre la recherche et l’industrie. La proximité d’entreprises aérospatiales déjà implantées et de grands groupes internationaux a été déterminante dans le choix du site de la nouvelle faculté TU. Ces dernières années, de plus en plus de start-ups tech se sont également installées dans la région métropolitaine de Munich, créant un environnement unique pour l’innovation et la recherche de pointe. Avec la Space Valley, la région profite de symbioses dynamiques entre les instituts de recherche et les entreprises établies dans le but de libérer une nouvelle force scientifique et économique. Grâce à ces coopérations, les étudiants peuvent appliquer leurs connaissances directement dans la pratique et un espace est créé pour les réseaux.

Un nouveau campus pour la faculté à Ottobrunn

Depuis octobre 2021, la faculté d’aéronautique, d’aérospatiale et de géodésie de l’université technique de Munich fait partie de la nouvelle School of Engineering and Design et doit devenir la plus grande faculté dans le domaine de l’aéronautique et de l’aérospatiale en Europe. Michael Klimke a été nommé directeur de la nouvelle faculté. Le site de recherche de Taufkirchen/Ottobrunn, siège principal du département, devrait notamment présenter un fort potentiel. Au premier trimestre 2022, la faculté emménagera dans un terrain de 14 000 m² récemment loué à Ottobrunn. Le campus Ludwig Bölkow qui y sera construit le sera en collaboration avec des entreprises et des instituts de recherche implantés à Ottobrunn et comprendra, outre des laboratoires et des salles d’essai, un incubateur d’entreprises. À long terme, il est prévu d’y créer un campus universitaire pouvant accueillir jusqu’à 4000 étudiants, plus de 50 professeurs et des centaines d’autres collaborateurs. Le terrain est la propriété de la coentreprise immobilière Accumulata Real Estate Group et Pamera Real Estate Partners.

Avec le nouveau campus, Ottobrunn devra également relever des défis en matière d’infrastructure. Le grand nombre de nouveaux étudiants et employés a besoin d’espace de logement et augmente le trafic dans la région.

Synergies stratégiques entre science et entreprises dans la Space Valley

Outre les synergies stratégiques avec les start-ups, la faculté d’aéronautique, d’aérospatiale et de géodésie collabore déjà, entre autres, avec Airbus, l’Université de la Bundeswehr, Munich Aerospace, le Centre allemand pour l’aéronautique et l’aérospatiale, Industrieanlagen-Betriebsgesellschaft mbH et MTU Aero Engines AG.

Des alliances sont également créées au sein des universités munichoises entre l’université technique de Munich, la Munich School of Robotics and Machine Intelligence (MSRM) et le Munich Center for Technology in Society (MCTS) dans le domaine de la recherche aéronautique et spatiale.

Mission de la Space Valley

Dans un premier temps, la mission de la Space Valley n’est pas la recherche d’autres planètes, mais l’exploration de la Terre. L’acquisition de connaissances sur notre climat est un objectif central. À long terme, la Space Valley bavaroise devrait permettre de développer de nouvelles technologies qui enrichiront la vie sur Terre.

Domaines de recherche et projets en cours dans la Space Valley

La Space Valley se concentre sur les domaines de recherche de l’observation de la Terre, des techniques de communication et de satellite, de la télédétection et de la recherche sur les véhicules aériens sans pilote.

Ces dernières années, l’université technique de Munich a participé plusieurs fois à la « SpaceX Hyperloop Pod Competition » d’Elon Musk et a gagné quatre fois de suite. L’équipe d’étudiants de l’université technique de Munich a construit un prototype de capsule Hyperloop et a établi un record de vitesse avec 482 km/h. Hyperloop décrit un train à grande vitesse qui se déplace à travers un tube à une vitesse proche de celle du son dans un vide partiel et est considéré comme le système de transport du futur. Avec une infrastructure Hyperloop, il serait possible de voyager de Munich à Berlin en 40 minutes. La faculté d’aéronautique, d’aérospatiale et de géodésie lance son propre programme de recherche sur l’Hyperloop et prévoit d’installer un tube d’essai sur le site de Taufkirchen/Ottobrunn.

Par ailleurs, des étudiants étudient les débris spatiaux et les plus petites particules de météorites dans le cadre du projet interdisciplinaire MOVE-III à l’université technique de Munich, afin de mieux comprendre notre environnement terrestre. Un autre projet travaille sur des ailes aéroélastiques pour les avions, afin de rendre le vol plus efficace et donc moins cher et plus écologique à l’avenir. Dans la Space Valley, une start-up travaille actuellement au développement d’un système d’alerte précoce à l’aide de nanosatellites, afin de pouvoir détecter plus rapidement les feux de forêt depuis l’espace.

L’industrie spatiale mondiale représente 400 milliards de dollars et continuera à croître et à gagner en importance dans les décennies à venir. La Space Valley en Bavière offre la chance d’être à la pointe de ce marché d’avenir dynamique.

Photo by NASA on Unsplash

Laser EUV et lithographie EUV : définition, domaines d’application, exemples

Laser EUV et lithographie EUV : définition, domaines d’application, exemples

En raison de la numérisation croissante, la technique et l’économie sont tributaires de progrès constants. L’un des domaines les plus importants est la puissance des ordinateurs. Une puissance informatique élevée permet d’améliorer la conduite autonome, les terminaux mobiles ou les progrès dans le domaine de l’intelligence artificielle. Le défi de l’amélioration consiste à placer toujours plus de transistors sur de petites puces.

Fonctionnement de la technique innovante

Les petites puces électroniques des smartphones contiennent actuellement 10 milliards de transistors. Ceux-ci possèdent déjà un million de fois la puissance de calcul dont pouvait se targuer l’ordinateur utilisé pour l’alunissage de 1969. Au début des années 1970, les micro-puces de même taille contenaient environ 2 000 transistors. En 1965, Gordon Moore, cofondateur de la société Intel, a prédit que le nombre de transistors dans les puces doublerait tous les deux ans. Au cours des décennies suivantes, il s’est avéré qu’il avait raison. Cette loi est devenue connue sous le nom de « loi de Moore ». Néanmoins, les étapes menant à l’amélioration deviennent de plus en plus compliquées après un certain temps en cas d’évolution exponentielle.

Depuis 40 ans, la fabrication de puces électroniques s’effectue à l’aide de la technologie de la lithographie optique. Les structures des composants électroniques sont transférées d’un masque sur une plaquette de silicium. Le processus est répété une centaine de fois en utilisant différents masques. On obtient ensuite une structure tridimensionnelle de pistes conductrices et de transistors. Une image nette de petites structures dépend de petites longueurs d’onde et de grands angles d’ouverture de l’optique.

Ces dernières années, ce procédé a atteint ses limites en raison des exigences croissantes de la technique et de l’économie. La lithographie EUV offre de nouvelles opportunités et pourrait repousser ces limites, ce qui est particulièrement intéressant pour les plus grandes entreprises électriques d’Allemagne. Pour simplifier, un système de lithographie EUV se compose de trois éléments essentiels : Une source de rayonnement avec protection contre les résidus et un collecteur, une plaquette avec un vernis photosensible et une optique et un masque de formation d’image. Le nouveau procédé mise sur d’autres gammes de longueurs d’onde et se focalise sur la lumière fortement ultraviolette comme source de rayonnement. Les ultraviolets sont des ondes très courtes. De plus, l’orientation vers des systèmes optiques et des miroirs sophistiqués permet de reproduire des structures minuscules. Le collecteur fait office d’optique collectrice afin que le rayonnement puisse être utilisé pour le processus d’exposition. Le rayonnement est ensuite réfléchi en direction de l’installation de lithographie. Une installation ASLM expose plus de 170 wafers par heure. La laque est structurée avec précision par un masque optique sur les wafers. Cela permet de créer des structures très fines de sept nanomètres. La comparaison suivante permet de se faire une idée : le système traditionnel travaillait avec des plages d’ondes lumineuses de 193 nanomètres, tandis que la lithographie EUV travaille dans la plage de 13,5 nanomètres. La lithographie EUV permet de fabriquer des micro-puces qui contiennent dix milliards de transistors, mais qui n’ont que la taille d’un ongle.

Cette technique n’est pas seulement tournée vers l’avenir et peu encombrante, elle est également efficace sur le plan énergétique. Par rapport à l’ancienne technique utilisant une longueur d’onde de 193 nanomètres, le nouveau procédé consomme 50 % d’énergie en moins. L’efficacité en termes d’utilisation de l’espace a pu être améliorée de 40 pour cent.

Domaines d’application et exemples de la lithographie EUV

L’évolution constante de la puissance des ordinateurs peut garantir la fabrication de circuits toujours plus petits et plus rapides. Des secteurs comme l’économie profitent justement de procédés de fabrication plus efficaces.

Dans la circulation routière, des situations imprévisibles et dangereuses peuvent rapidement survenir. La conduite autonome offre à long terme une possibilité d’améliorer la sécurité. Dans ce contexte, il est important que le logiciel ne se contente pas de freiner et de diriger automatiquement. Les programmes doivent être capables d’évaluer les situations de manière autonome afin d’anticiper et d’identifier les dangers potentiels. Ce type de conduite autonome n’est pas encore un standard dans la circulation routière actuelle. Les techniques EUV constituent toutefois une possibilité prometteuse pour la réalisation et l’amélioration durables de tels projets. Les caméras et les capteurs qui aident à évaluer les situations sont importants pour la conduite automatisée. Pour ce faire, l’environnement est enregistré et analysé en détail. Les nouvelles informations sont comparées à une base de données stockée afin de calculer une réaction appropriée. Les puces électroniques améliorées sont en mesure de créer des bases de données de plus en plus importantes et de traiter rapidement les nombreuses informations. Cela améliore la vitesse de réaction et la précision.

Les lasers EUV rendent possibles les smartphones modernes et toutes les fonctions spéciales qu’ils contiennent. Les téléphones portables sont devenus de plus en plus sûrs contre le vol grâce à l’introduction de la reconnaissance faciale. Différentes caractéristiques spéciales du visage sont transmises au smartphone par la caméra frontale, comme par exemple la distance d’un œil à l’autre. Le programme intégré compare les données reçues avec les informations enregistrées et déverrouille le téléphone si le propriétaire a pu être identifié avec succès. Le fait que les puces soient devenues de plus en plus performantes au cours des dernières années a contribué à améliorer considérablement la reconnaissance faciale. Des logiciels similaires sont utilisés dans les aéroports, par exemple.

Dans différents secteurs de services, des assistants vocaux et des chatbots sont utilisés pour simplifier le travail. Ces intelligences artificielles sont par exemple utilisées dans le service clientèle. Des programmes sont proposés sur des sites web et peuvent répondre aux questions des consommateurs. Si le logiciel ne peut pas trouver de réponse appropriée dans la base de données, des collaborateurs réels sont nécessaires. La technique EUV permet d’améliorer les chatbots et les IA. Grâce aux améliorations, les programmes sont capables de reconnaître et d’interpréter correctement les mots à double sens. Même les mots mal orthographiés peuvent être reconnus et attribués correctement. Une puissance de calcul accrue permet de disposer de bases de données de plus en plus importantes auxquelles l’IA peut avoir recours pour obtenir de meilleurs résultats.

Récompense avec le prix allemand de l’avenir

Le 25 novembre 2020 à Berlin, les lauréats du Prix allemand de l’avenir 2020 ont été annoncés. Lors d’une cérémonie officielle, les gagnants du projet « Lithographie EUV – Nouvelle lumière pour l’ère numérique » ont été honorés par le président allemand Frank-Walter Steinmeier. Le prix dans les domaines de la technique et de l’innovation a été décerné à l’équipe d’experts dirigée par le Dr Peter Kürz, le Dr Michael Kösters et le Dr Sergiy Yulin.

Le Prix allemand de l’avenir, l’une des distinctions scientifiques les plus importantes d’Allemagne, est décerné depuis 1997. L’accent est mis sur la distinction de produits prêts à être utilisés dans les domaines de la technique, de l’ingénierie et des sciences naturelles. Lors de l’attribution, le jury se concentre également sur le potentiel social et économique des projets innovants. Seules trois équipes et leurs innovations sont sélectionnées chaque année.

Photo by Artem Bryzgalov on Unsplash

QUE SONT LES FILMS E-INK ? ET COMMENT FONCTIONNENT-ILS ?

QUE SONT LES FILMS E-INK ? ET COMMENT FONCTIONNENT-ILS ?

Notre monde actuel est dominé par l’électrotechnique et la numérisation. Le degré de développement des appareils électroniques est en forte hausse. Alors qu’il y a 25 ans, peu de gens étaient équipés d’un téléphone portable, aujourd’hui, presque tout le monde a un ordinateur high-tech dans sa poche. Cette tendance à la hausse du développement est à l’origine de nouvelles innovations et nouveautés technologiques. Étant donné que chaque foyer allemand est équipé en moyenne de cinq à dix écrans électroniques, il n’est pas surprenant que la recherche se poursuive également dans le domaine de la technologie d’affichage et que de nombreux concepts intéressants soient développés et commercialisés. Outre les écrans LED/LCD traditionnels ou les écrans à technologie TN, il existe depuis quelque temps également des écrans E-Ink, c’est-à-dire des écrans à « encre électronique ». Ceux-ci sont également connus sous le nom de feuille E-Ink ou E-Paper. L’article suivant explique ce qui se cache derrière cette technique et comment elle fonctionne exactement.

Comment fonctionne la feuille E-Ink ?

La technologie d’affichage des feuilles E-Ink existe depuis un certain temps déjà sur le marché et trouve de plus en plus d’applications grâce à cette technologie particulière. Cette technologie doit son nom au fait qu’elle présente un fort parallélisme visuel avec l’encre sur papier. Les écrans les plus utilisés jusqu’à présent, comme les écrans LED/LCD ou TN, reposent sur l’idée que la surface se compose de très nombreux pixels individuels, dont chacun peut afficher une seule couleur.
Le film E-Ink mise toutefois sur un système avancé avec un concept chimique intéressant. L’écran E-Ink est composé d’une couche contenant un nombre incalculable de capsules minuscules. Chaque capsule est remplie de particules. Pour les écrans en noir et blanc ou en niveaux de gris, ces capsules ne sont remplies que de particules noires et blanches. Pour les surfaces d’affichage en couleur, les capsules sont généralement remplies de particules de couleur magenta, jaune, cyan (turquoise) et blanche. Ces particules flottent dans un liquide clair. Les capsules sont reliées à l’avant et à l’arrière à des électrodes transparentes. Ces particules individuelles sont réglées de manière à pouvoir être déplacées par une charge électrique. Chaque couleur a ainsi un réglage différent et l’ordre des particules colorées peut être modifié par des impulsions électroniques.

Exemple:

Dans un écran à niveaux de gris, les particules sont réglées de telle sorte que les particules noires s’élèvent lorsqu’elles sont chargées négativement et que les particules blanches s’élèvent lorsqu’elles sont chargées positivement. Chaque zone de l’écran peut ainsi recevoir des charges différentes. Maintenant, si la surface doit être entièrement blanche, chaque capsule reçoit une charge positive. Si une zone doit afficher un point noir, c’est précisément cette zone qui reçoit une charge négative et devient noire.
Le concept est le même pour les films E-Ink avec des écrans colorés, sauf que la disposition des différentes particules de couleur nécessite plusieurs états de charge.

Les avantages du film E-Ink : consommation d’énergie

Ce type de technologie d’affichage présente de nombreux avantages par rapport aux méthodes traditionnelles. Le concept d’affichage des films E-Ink consomme beaucoup moins d’électricité. En effet, un écran E-Ink ne consomme de l’énergie que lorsqu’une modification de la disposition des couleurs est initiée. Les écrans LED traditionnels utilisent une lumière colorée continue. Par conséquent, les appareils mobiles équipés d’une feuille E-Ink disposent également d’une autonomie exorbitante des batteries. Cette caractéristique fait qu’il existe des tableaux muraux dotés de la technologie E-Ink qui ne consomment absolument pas d’énergie tant que l’image affichée sur le mur n’est pas modifiée.

Les avantages du film E-Ink : le confort visuel

En outre, l’interaction avec l’œil humain présente également de forts avantages pour les écrans E-Ink par rapport aux technologies d’affichage traditionnelles. Les écrans E-Ink sont beaucoup plus doux pour les yeux. En effet, l’écran ne scintille pas, comme c’est le cas avec les autres technologies d’affichage. Les différentes capsules permettent, grâce à la reproduction de la couleur sans lumière, d’obtenir une image statique qui agit sur l’œil humain de la même manière qu’une image sur un mur ou une feuille de papier sur laquelle on écrit. C’est bien sûr un avantage pour chaque utilisateur, mais ces écrans représentent une nette amélioration, en particulier pour les personnes souffrant d’un handicap visuel.

En outre, il est de notoriété publique que les écrans dotés de la technologie LCD éblouissent en plein soleil. Dans certains cas, il est tout simplement impossible de travailler en plein soleil. Lorsqu’un appareil doté de la technologie E-Ink est utilisé en plein soleil, la lisibilité est infiniment meilleure.

Domaines d’application : Lecteurs de livres électroniques, information, travail, automobile.

Ces caractéristiques et avantages particuliers de la technologie E-Ink ont révolutionné certains marchés et en ont également créé de nouveaux. En principe, les domaines d’application des films E-Ink sont illimités, mais la technologie a particulièrement le vent en poupe dans certains secteurs.
Le marché des lecteurs de livres électroniques a notamment été révolutionné par l’e-ink. Avant l’introduction de la feuille E-Ink, il existait déjà des lecteurs de livres électroniques. Ceux-ci étaient toutefois dotés de la technologie LCD et n’ont guère pu réaliser de percées notables. Ce n’est qu’au milieu des années 2010, après l’introduction de la feuille E-Ink, que plusieurs nouveaux lecteurs de livres électroniques ont été lancés sur le marché. Cela s’explique par le fait que la nouvelle technologie a pu faire disparaître la plupart des inconvénients des anciens lecteurs et que le concept de lecteurs de livres électroniques est redevenu intéressant pour le consommateur final.De nombreux panneaux d’affichage fonctionnent encore aujourd’hui avec des techniques d’affichage traditionnelles. Il peut s’agir de panneaux publicitaires dans les espaces urbains ou de panneaux d’information dans les aéroports. L’économie d’énergie électrique réalisée grâce à la conversion de la technologie au film E-Ink pourrait également révolutionner ce marché. Ici aussi, les avantages de la feuille E-Ink sont mis en avant. Grâce à l’affichage qui ménage les yeux, il est possible de travailler pendant une longue période sans se fatiguer les yeux ou les surmener.Enfin, la feuille E-Ink est également de plus en plus utilisée dans le domaine du design. Le constructeur automobile BMW a présenté en janvier 2022, à l’occasion du CES (Consumer Electronic Show) de Las Vegas, un nouveau modèle de la BMW iX. Le BMW iX Flow a en effet une caractéristique particulière. Elle peut changer la couleur de l’extérieur. De plus, il est possible de créer des dégradés de couleurs et des motifs. BMW a ainsi réussi une innovation pour les voitures de luxe qui pose de nouveaux jalons en matière de design. Ici aussi, le film E-Ink est utilisé. L’ensemble de la carrosserie en est recouvert. Il suffit ainsi d’appuyer sur un bouton pour modifier la couleur de la voiture.

Histoire du film E-Ink

E-Ink est devenu le nom de cette technologie dans le langage courant. Mais derrière ce nom se cache également l’entreprise qui a développé le film. La E-Ink Corporation a été fondée en 1997 par quelques chercheurs, après que la technologie ait été développée dès 1996 par quelques scientifiques et chercheurs du Massachusetts Institute of Technology (MIT). Grâce à cette technologie brevetée, la E-Ink-Corporation a pu entrer dans le courant dominant grâce au boom des lecteurs de livres électroniques en 2006 et a même été inscrite au Hall of Fame des inventeurs nationaux aux États-Unis en 2016. Depuis lors, E-Ink a amélioré et dépassé sa technologie à de nombreuses reprises. Ainsi, E-Ink équipe désormais également des appareils tels que les tablettes, les ordinateurs portables ou les smartphones.

Source:E Ink 
Photo by @felipepelaquim on Unsplash
Qu’est-ce qu’un centre de données – et pourquoi deviennent-ils pertinents ?

Qu’est-ce qu’un centre de données – et pourquoi deviennent-ils pertinents ?

On appelle centre de données une installation qui offre un accès commun aux données et aux applications via une structure complexe de calcul, de stockage et de réseau. Pour s’assurer que les données sont sécurisées et hautement disponibles, il existe des normes industrielles qui sont également utiles pour la planification et la maintenance des centres de données.

Qu’est-ce qu’un centre de données ?

Sous une forme ou une autre, les data centers, également connus sous le nom de centres de données, existent depuis l’apparition des ordinateurs. À l’époque des géants de la taille d’une pièce, un centre de données se composait peut-être d’un superordinateur. Lorsque les appareils sont devenus plus petits et moins chers et que les exigences ont augmenté, de plus en plus de fournisseurs ont commencé à relier plusieurs serveurs entre eux. Cela a considérablement augmenté la puissance de traitement.

Aujourd’hui, ces serveurs sont reliés à des réseaux de communication afin que les gens puissent accéder à distance aux informations qui y sont stockées. Une pièce, un bâtiment ou plusieurs bâtiments abritent souvent plusieurs serveurs en grappe avec l’infrastructure correspondante. Les centres de données modernes disposent de centaines ou de milliers de serveurs qui fonctionnent 24 heures sur 24. C’est pourquoi les plus grands investisseurs de data centers d’Europe sont très intéressés par ces technologies.

En raison de la forte concentration de serveurs empilés en rangées les uns sur les autres, ces centres de données sont également appelés fermes de serveurs. Les data centers offrent des services importants comme par exemple :

+ stockage de données
+ sauvegarde et récupération
+ mise en réseau
+ gestion des données
+ services de réseau

Les centres de données stockent et mettent à disposition des sites web entiers. Des services tels que le commerce électronique, le stockage en nuage, la messagerie électronique, la messagerie Instand, les jeux en ligne, les services financiers et d’autres applications sont fournis sur les serveurs.

Presque toutes les entreprises, organisations, administrations ou instituts de recherche scientifique ont besoin de leur propre centre de données ou doivent recourir aux services d’un fournisseur tiers. Certains utilisent pour cela un bâtiment spécifique ou des services publics basés sur le cloud, comme ceux proposés par Amazon, Google ou Microsoft. Les centres de données des grandes entreprises sont souvent répartis dans le monde entier afin de garantir un accès permanent aux données.

Pourquoi avons-nous besoin de data centers ?

Même si le matériel informatique est de plus en plus petit et de plus en plus puissant, les besoins en puissance de calcul et en stockage de données ne cessent de croître. À partir d’une certaine taille, chaque entreprise, administration, institut de recherche, réseau social et organisation a besoin d’une énorme puissance de calcul. Un manque de données rapides et fiables peut entraîner l’impossibilité de fournir des services importants et la perte de la satisfaction des clients et du chiffre d’affaires.

Toutes ces données doivent être stockées quelque part. C’est pourquoi de plus en plus de données migrent vers le cloud, de sorte qu’elles ne doivent pas être stockées sur les ordinateurs de travail. Ces données sont ensuite accessibles via des serveurs hôtes, c’est pourquoi de nombreuses entreprises transfèrent également leurs applications professionnelles vers le cloud. Cela permet à son tour de réduire les coûts d’exploitation de ses propres serveurs et réseaux.

Types de centres de données

La taille des centres de données varie. Cela va de petites salles de serveurs à des centres répartis géographiquement sur le globe. Les centres de données modernes se sont développés à partir d’une infrastructure locale. Aujourd’hui, les systèmes locaux sont reliés à des infrastructures en nuage, dans lesquelles les réseaux, les applications et les charges de travail sont virtualisés dans plusieurs nuages privés et publics. On distingue les types de centres de données suivants :

+ Les centres de données en co-location – l’espace et les ressources sont mis à disposition d’un client par un fournisseur. L’administration incombe au client.

+ Centres de données d’entreprise – Ces centres de données sont utilisés par des entreprises individuelles à des fins internes.

+ Centres de données de services gérés – Ici, des services tels que le stockage de données, le calcul et d’autres services sont exécutés directement pour le client.

+ Centres de données en nuage – Ces centres sont répartis dans le monde entier et sont souvent proposés au client avec l’aide d’un fournisseur de services gérés externe.

Mise à l’échelle et conception

Lorsque nous pensons à un centre de données, nous imaginons souvent d’énormes halls remplis de racks de serveurs qui clignotent devant nous. Des kilomètres de câbles relient les serveurs aux routeurs, commutateurs ou autres appareils. Les centres de données existent pourtant dans toutes les tailles et configurations. Ils vont de quelques serveurs dans une pièce à des dizaines de milliers de serveurs dans d’immenses halls. Certains sont si grands que les employés s’y déplacent à vélo ou en scooter électrique.

La configuration des serveurs, la topologie du réseau et l’infrastructure de soutien peuvent varier considérablement en fonction de l’entreprise, de l’objectif, de l’emplacement, du taux de croissance et du concept de conception initial du centre de données. L’agencement d’un centre de données peut avoir une influence considérable sur l’efficacité du flux de données et sur les conditions environnementales au sein du centre. Certains sites peuvent regrouper leurs serveurs en fonction de leurs fonctions, comme les serveurs web, les serveurs de base de données ou les serveurs d’applications et les serveurs de base de données. Dans d’autres entreprises, chaque serveur peut effectuer plusieurs tâches. Il n’existe pas de règles ou de normes fixes pour cela.

Comment fonctionnent les centres de données

Les serveurs reliés en clusters constituent une unité physique de base des centres de données. Souvent, ils sont de même type afin de pouvoir les empiler dans des armoires ouvertes ou fermées. Mais parfois, il existe différents types, tailles ou âges de serveurs. Par exemple, des serveurs modernes et plats coexistent avec de vieux ordinateurs Unix et d’énormes mainframes.

Chaque serveur est un ordinateur à hautes performances, avec de la mémoire vive, de l’espace de stockage, un ou des processeurs et une capacité d’entrée et de sortie. Un peu comme un ordinateur personnel, mais avec un processeur plus rapide et plus puissant et beaucoup plus de mémoire. Les moniteurs, claviers ou autres périphériques sont placés à un endroit central ou dans une salle de contrôle séparée, d’où les appareils sont surveillés.

Réseaux, logiciels et infrastructure

Les équipements de réseau et de communication sont nécessaires dans un centre de données afin de maintenir un réseau à large bande passante pour la communication avec le monde extérieur et entre les serveurs et les autres équipements au sein du centre de données. Il s’agit de composants tels que les routeurs, les commutateurs, les contrôleurs d’interface réseau (NIC) des serveurs et éventuellement des kilomètres de câbles. Le câblage existe sous différentes formes, notamment la paire torsadée (cuivre), le coaxial (également en cuivre ) et la fibre optique (verre ou plastique). Les types de câbles et leurs différents sous-types influencent la vitesse à laquelle les informations circulent dans le centre de données.

D’autres équipements importants du centre de données comprennent les dispositifs de stockage (tels que les disques durs, les disques SSD et les lecteurs de bande robotisés), les alimentations sans interruption (UPS), les batteries de secours, les générateurs de secours et d’autres équipements liés à l’alimentation électrique.

Et bien sûr, des logiciels sont nécessaires pour faire fonctionner tout ce matériel, y compris les différents systèmes d’exploitation et applications qui s’exécutent sur les serveurs, les logiciels de cadre de clustering tels que MapReduce de Google ou Hadoop pour répartir le travail sur des centaines de machines ou plus, les programmes de socket Internet pour contrôler les réseaux, les applications de surveillance du système et les logiciels de virtualisation tels que VMware pour réduire le nombre de serveurs physiques.

Centres de données virtuels

Un centre de données virtuel offre les possibilités d’un centre de données traditionnel, mais utilise des ressources basées sur le cloud plutôt que des ressources physiques. Il offre à une entreprise la possibilité de déployer des ressources d’infrastructure supplémentaires à la demande, sans avoir à acheter, déployer, configurer et entretenir des appliances physiques. De cette manière, les entreprises peuvent profiter de la flexibilité, de l’évolutivité et des économies de coûts du cloud computing.

Sécurité du centre de données

En plus des systèmes de sécurité des bâtiments qui soutiennent une installation de centre de données, les réseaux de communication nécessitent une analyse approfondie de la confiance zéro. Les pare-feux de centre de données , les contrôles d’accès aux données, les IPS , les WAF et leurs systèmes équivalents modernes de protection des applications et des API Web (WAAP) doivent être correctement spécifiés afin de garantir qu’ils évoluent à la demande pour répondre aux besoins des réseaux de centre de données.

Pourquoi les centres de données deviennent-ils pertinents ?

Les centres de données sont l’épine dorsale du traitement moderne des données. Ils sont l’artère vitale qui permet à notre monde numérique de fonctionner. Les data centers sont bien plus sûrs que le stockage de données sur du matériel traditionnel. Les centres de données virtuels dans le cloud offrent, outre des services de sauvegarde, une meilleure protection de sécurité grâce à des pare-feux efficaces et à des dispositifs similaires.

Source: DataCenter 
Photo by Taylor Vick on Unsplash
QU’EST-CE QUE LE NOUVEAU MODÈLE LINGUISTIQUE DEEPMIND GOPHER ?

QU’EST-CE QUE LE NOUVEAU MODÈLE LINGUISTIQUE DEEPMIND GOPHER ?

Les modèles linguistiques qui apprennent grâce à des intelligences artificielles (IA) sont sur toutes les lèvres. La plupart du temps, la performance et la qualité de ces modèles linguistiques vont de pair avec leur taille. Plus le modèle est grand, plus il est performant. Toutefois, les modèles plus grands présentent un manque de transparence plus important. Les éthiciens voient cela d’un œil critique, car les modèles deviennent de plus en plus opaques et les distorsions de plus en plus difficiles à détecter à mesure que leur taille augmente. Cela suscite des préoccupations éthiques considérables. Gopher est un modèle linguistique relativement petit qui peut rechercher des informations dans une base de données et obtenir ainsi ses informations. Gopher a été entraîné à être amical et à mener des dialogues similaires à ceux d’un être humain. Les utilisateurs peuvent poser des questions concrètes à Gopher et obtenir des réponses concrètes à partir des informations de la base de données. Ainsi, malgré sa petite taille, Gopher peut rivaliser avec les grands modèles du marché tout en restant flexible. Les connaissances de Gopher peuvent également être rafraîchies par une mise à jour de la base de données, sans qu’il soit nécessaire de former à nouveau Gopher.

La société de développement de Gopher, Deepmind, n’est pas inconnue. L’entreprise a été fondée en 2010 et rachetée dès 2014 par la maison mère de Google, Alphabet. L’entreprise, dont le siège social se trouve à Londres, dispose d’autres centres au Canada, en France et aux États-Unis. Avec Gopher, Deepmind a posé un nouveau jalon dans le domaine des modèles linguistiques.

Avec 280 milliards de paramètres, Gopher n’est certes pas le plus grand modèle linguistique, mais il apporte un énorme potentiel grâce à son lien avec la base de données. Dans le document de 118 pages publié par Deepmind, l’entreprise explique tout ce qu’il faut savoir sur le modèle linguistique et donne des exemples de conversations qui décrivent les interactions entre Gopher et l’utilisateur. Les utilisateurs peuvent poser des questions au modèle linguistique sur tous les sujets possibles et imaginables. Peu importe que les utilisateurs veuillent en savoir plus sur les dinosaures, la théorie de la relativité ou la capitale de la République tchèque. Gopher a une réponse pour chaque question.

Comme tous les grands modèles linguistiques, Gopher est un transformateur. Cela signifie que Gopher apprend lui-même (apprentissage automatique) et traduit une séquence de caractères en une autre séquence de caractères. Pour ce faire, le modèle est entraîné à l’aide de données d’exemple et apprend ainsi comment il doit travailler. Gopher a été entraîné sur la base de 300 milliards de caractères, mais peut recourir à des quantités de connaissances bien plus importantes grâce à sa base de données. Au total, la quantité de données comprend 2,3 billions de caractères et est donc plusieurs fois supérieure à la quantité de données utilisée pour l’entraînement de Gopher.

Gopher peut être utilisé pour différents domaines et a été testé et comparé au total, après son développement, dans 152 tâches par Deepmind. Les tâches allaient de la vérification des faits à la modélisation du langage en passant par les réponses à diverses questions posées par les utilisateurs. Dans près de 80% des tâches, Gopher a réussi à s’imposer face aux modèles linguistiques concurrents comparés, parmi lesquels figurait le modèle bien connu GPT-3.

Le modèle de Deepmind a pris l’avantage en particulier dans la conduite de la conversation, où il a fait preuve d’une grande cohérence. La conduite naturelle de la conversation est souvent un problème pour les modèles linguistiques qui misent sur l’intelligence artificielle. Les modèles sont certes capables de former des phrases individuelles grammaticalement correctes, mais ils ont du mal à établir une cohérence sur l’ensemble d’un paragraphe ou d’un texte. C’est pourtant l’un des grands défis à relever dans le développement de modèles de langage artificiel, car il est essentiel pour la fluidité de la conversation.

L’une des raisons des bons résultats de Gopher réside dans son lien avec la base de données. La base de données de Gopher est utilisée comme une sorte d’antisèche ou d’ouvrage de référence. Cette base de données est utilisée par Gopher pour rechercher des passages avec un langage similaire, ce qui augmente la prédiction et la précision du modèle. Deepmind appelle la technologie du modèle « Retro » (Retrieval-Enhanced Transformer). Traduit en français, cela signifie quelque chose comme un transformateur amélioré par des possibilités de recherche. Grâce à cette technologie, Gopher est en mesure de concurrencer des modèles linguistiques 25 fois plus grands.

Bien que Gopher soit convaincant dans de nombreux domaines et surpasse ses concurrents, cette IA, tout comme d’autres modèles linguistiques, doit faire face à des problèmes éthiques similaires. Grâce à son lien avec la base de données, Gopher doit cependant être évalué différemment, d’un point de vue éthique, des modèles linguistiques comparables sans base de données. Gopher rend transparentes les sections de la base de données qui ont été utilisées pour les prédictions. Cela peut aider à expliquer les résultats et, en même temps, cela signifie que Gopher n’est pas une simple boîte noire. De plus, les influences déformantes (biais) peuvent être modifiées directement dans la base de données et ainsi éliminées.

Le fait que le modèle de langage, bien qu’il soit plutôt petit, ait généralement surpassé ses concurrents lors des tests soulève la question de la qualité des grands modèles de langage reliés à une base de données. Ceux-ci ne sont toutefois pas encore disponibles sur le marché et devraient, outre le développement, être examinés d’un point de vue éthique.

Cependant, à en juger par les données de Deepmind, Gopher est actuellement le modèle de langage le plus efficace, capable d’apprendre par des modifications de la base de données sans devoir être entièrement réentraîné.

Source: Deepmind

 

La construction hybride en bois : Définition, exemples, avantages

La construction hybride en bois : Définition, exemples, avantages

Le bois en tant que matériau de construction est utilisé par l’homme depuis la nuit des temps pour la construction de maisons. Le bois est facile à travailler et vit avec ses conditions. Les maisons en bois possèdent un charme incomparable et sont des habitations très recherchées. Toutefois, la construction en bois pur est limitée dans ses dimensions autorisées, jusqu’à cinq étages sont autorisés. Tout ce qui est plus haut devient problématique pour la construction en bois. Cela s’explique par la réglementation en matière de protection contre les incendies et par la statique. Depuis 2008, il existe toutefois une solution intelligente et innovante pour les nouveaux bâtiments de six étages et plus. La construction hybride combine le bois avec différents matériaux comme l’acier, le béton, l’aluminium et les plaques de plâtre. Vive la « collaboration », même entre les matériaux !

De bonnes raisons pour le mélange des matériaux

L’autorisation légale pour une construction n’est toutefois pas la seule raison pour laquelle la construction hybride est privilégiée. Ce sont les avantages économiques lors de la construction de la maison qui convainquent les maîtres d’ouvrage et les architectes. Le bois est un matériau de construction populaire qui se travaille très bien. Associé au béton armé, il peut être encore plus porteur. Jusqu’à présent, le staticien recommande encore l’utilisation du béton pour les plafonds et les fondations, mais il pourra à l’avenir recourir de plus en plus à des mélanges de matériaux, car des prouesses techniques dans le développement d’éléments en bois préfabriqués permettent de réaliser de nouvelles constructions. Mais ce n’est pas seulement le mélange de bois et de béton qui a donné naissance à des constructions ultramodernes ces dernières années, la fabrication innovante de l’industrie de transformation du bois contribue également à faire monter le bois de manière stable en hauteur. Le matériau porte alors des noms tels que bois contreplaqué ou bois massif de construction. Il se caractérise par des propriétés matérielles particulières. Un autre avantage de la construction combinée est le facteur temps. La phase de construction est raccourcie grâce à la préfabrication. Il faut toutefois noter, en toute justice, que le groupe de planification prend plus de temps en amont. En tout cas, la construction hybride en bois est respectueuse de l’environnement. En effet, l’utilisation de ce matériau permet d’économiser du sable, une matière première précieuse. En ce qui concerne les valeurs d’isolation acoustique requises et la précision de la fabrication de certains éléments, la construction hybride en bois est également avantageuse. La diminution des émissions de gaz à effet de serre est déjà prouvée. Enfin, il convient de mentionner le climat intérieur et l’aspect bien-être, des critères importants pour les habitants.

Des exemples vivants

La construction hybride en bois compte aujourd’hui de nombreux exemples vivants. On en trouve partout dans le monde. Par exemple à Vienne, 24 étages de haut, soit près de 85 mètres, en Norvège, un mètre et demi plus haut que Vienne et celui-ci est également considéré comme le plus haut bâtiment hybride en bois du monde. Elle a été inaugurée en 2019. La même année, les immeubles d’habitation de Berlin-Adlershof ont été achevés. Trois ans plus tôt, il y avait déjà eu un projet réussi au Canada, un foyer d’étudiants en éléments de bois, et en 2021, Pforzheim se dresse avec ses fiers 45 mètres. La construction hybride en bois n’est pas seulement une alternative innovante aux styles traditionnels, mais ce type de construction rappelle un mode de vie naturel, donne aux habitants un sentiment positif face à l’avenir, car la gestion est durable et la conscience est en harmonie avec l’expérience. L’habitat en bois répond aux attentes des citoyens soucieux de l’environnement, car ce matériau de construction consomme beaucoup moins d’énergie pour sa fabrication que l’acier. C’est pourquoi de nombreux développeurs de projets en Allemagne s’intéressent à ce nouveau concept d’habitat.

Mélange – mais comment ?

Le bois est généralement utilisé pour l’enveloppe du bâtiment, tandis que le béton assure la stabilité des plafonds et de la cage d’ascenseur. Dans certains projets, on utilise également des plafonds mixtes bois-béton. Les éléments porteurs en bois sont renforcés par de l’acier ou recouverts de plaques de plâtre. Parfois, la façade est soutenue par de la laine de roche et la cage d’escalier est en béton armé. Le béton est également utilisé pour les conduites techniques et l’ensemble du noyau d’alimentation, ce qui rend cette zone sensible résistante au feu. La cave et le garage sont majoritairement en béton. Comme un coffrage en bois a été choisi pour la façade, l’observateur a l’impression que l’ouvrage est une maison entièrement en bois. L’aspect des pièces intérieures rappelle également la construction en bois pur. Le matériau de construction utilisé à tel ou tel endroit d’un bâtiment n’est pas défini par le droit de la construction, il relève de l’expertise de l’architecte et de l’imagination et du porte-monnaie du maître d’ouvrage.

Économique – mais pourquoi ?

Des tonnes de dioxyde de carbone sont économisées, d’une part lors de la production, mais aussi parce que le bois stocke lui-même du dioxyde de carbone. Les économies réalisées grâce à une pré-construction précise, à une meilleure technique de climatisation et à une fabrication rapide font de ce mode de construction une solution d’avenir. Une phase de construction raccourcie est un soulagement pour toutes les parties concernées. Un certain nombre de bâtiments réalisés grâce à la construction hybride en bois font partie des maisons à haute efficacité énergétique et peuvent, dans certains cas, être subventionnés par les banques. La construction en bois et en béton ou en aluminium a en outre un autre effet positif. En réduisant la poussière et le bruit pendant la phase de construction, ce type de construction gagne de plus en plus d’amateurs. Le faible poids propre du bois permet d’éviter l’utilisation de nombreuses machines lourdes et la flexibilité de fonctionnement permet de modifier les plans et la construction. Les planchers mixtes bois-béton, par exemple, peuvent être démontés. Les économies réalisées grâce aux constructions à ossature bois se traduisent par une surface brute de plancher plus importante, ce qui, au final, signifie souvent un logement de plus. Et les logements créés grâce à la construction hybride en bois restent abordables pour tous les habitants.

Photo by Linus Mimietz on Unsplash