Kategorie: Uncategorized

Wie funktioniert das Fraunhofer Solarzellen Druckverfahren?

Wie funktioniert das Fraunhofer Solarzellen Druckverfahren?

Solarzellenproduktion auf hohem Niveau

Das Fraunhofer ISE hat in Zusammenarbeit mit der Asys Automatisierungssysteme GmbH ein Verfahren zum Metallisieren von Siliziumsolarzellen entwickelt. Mithilfe dieses Verfahrens ist es möglich, in einer Hochdurchsatz-Anlage Solarzellen in einem Bruchteil der vorherigen Zeit zu produzieren. Was besonders den größten Solarmodulherstellern zugute kommt. Dabei wird die Beschichtung mit den Verfahren des Rotationssiebdrucks und Flexodrucks realisiert.

Die Anlage mit dem Namen Rock-Star funktioniert im Gegensatz zu anderen Anlagen anderthalb Mal schneller, der Durchsatz entspricht bis zu 8000 Teilen die Stunde. Dabei können auch Teile für andere Bereiche wie der Leistungselektronik, Wasserstofftechnologie und Sensorik eingesetzt werden. Die Taktzeit sinkt hierbei auf gerade einmal 0,6 Sekunden pro Solarzelle, was im Vergleich zu den bisherigen 0,9 Sekunden im Flachbett-Siebdruckverfahren eine enorme Verbesserung des Zeitmanagements darstellt.

Funktion der Anlage

Die Anlage verfügt über ein komplett neues Hochdurchsatz Transportsystem. Bei der Anfertigung der Komponenten werden die Bestandteile auf Shuttles mit einer hohen Geschwindigkeit und Genauigkeit an Druckwerken der Gallus Ferd Rüesch AG, einem Maschinenbauunternehmen aus der Schweiz, vorbei transportiert und dabei beschichtet.

Ein Rotationssiebdruckwerk und ein Flexodruckwerk können zugeschaltet werden. Einige Druck- sowie Beschichtungsverfahren, wie der Tiefdruck, sind durch die Bauart ebenfalls integrierbar. Auf diesem Weg können die Bestandteile mit 600 mm/s befördert und genau bedruckt werden. Durch die Metallisierung der Solarzellen werden Busbars und Zellgrids durch einen Siebdruck auf der Solarzelle befestigt.

Geschichte des Fraunhofer-Instituts

Das Fraunhofer-Institut für Solare Energiesysteme gehört der Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. an und befindet sich in Freiburg im Breisgau. Es wurde 1981 von Adolf Goetzberger gegründet. Im Jahr 1983 gelang bereits die Entwicklung eines ersten vollelektronischen ISE-Wechselrichters. 1986 entstand hier das erste Serienprodukt mit einem Fluoreszenzkollektor für die Energieversorgung und 1989 wurde das erste Reinraumlabor für die Entwicklung von Solarzellen eröffnet. Seit 1998 werden zudem selektive Solarabsorberschichten für thermische Solarkollektoren hergestellt.

Allgemein widmet sich das Institut der angewandten Forschung und Entwicklung in den Ingenieurwissenschaften und Naturwissenschaften auf dem Gebiet der Solartechnik und der Fotovoltaik. Es gibt einen Außenstandort in Gelsenkirchen, der Solarzellen produziert. Das Institut ist mit über 1100 Mitarbeitern das größte Solarforschungsinstitut in Europa, das Budget beträgt ca. 83,5 Mio. Euro.

Das Frauenhofer Institut erstreckt sich auf 66 Standorte mit über 22.000 Mitarbeitern in Deutschland. Die Anlage Rock-Star wurde von Dr. Florian Clement, welcher der Leiter der Abteilung Strukturierung sowie Produktionstechnologie und Metallisierung am Fraunhofer ISE ist, ins Leben gerufen und wird seit der Gründung von ihm geleitet.

Geschichte der ASYS Automatisierungssysteme GmbH

Die ASYS Automatisierungssysteme GmbH wurde im Jahr 1992 als ein Maschinenbauunternehmen in Dornstadt durch Werner Kreibl und Klaus Mang gegründet. Sie produziert unter anderem Schablonen- und Siebdrucker, mithilfe derer Leiterplatten mit Lotpaste und Solarzellen mit Metallisierungspaste beschichtet werden. Außerdem stellt das Unternehmen Handlingsysteme für die Elektronikfertigung sowie Automatisierungstechnik für die Medizintechnik und pharmazeutische Industrie her. Der Umsatz der ASYS Automatisierungs- GmbH beträgt ca. 151 Mio. Euro im Jahr. Die Firma beschäftigt annähend 1300 Mitarbeiter und deckt etwa 75 Prozent der SMT-Produktionslinie ab.

Beitrag zum Klimaschutz

Mit den nun deutlich schneller produzierbaren Solarzellen lässt sich der Klimawandel zumindest geringfügig reduzieren. Hier wird erneuerbarer Strom verwendet anstatt auf herkömmliche, nicht erneuerbare Energiequellen wie Öl oder Gas zu setzen, deren Nutzung zu mehr Kohlendioxid in der Atmosphäre führt als erneuerbarer Strom. Natürlich stellt die beschleunigte Produktion von Solarzellen nur einen kleiner Beitrag zum Klimaschutz dar. Wenn jedoch immer mehr Menschen auf Solarzellen umschalten, würde der Effekt sich Tag für Tag verstärken. So könnte es mit genug Beteiligung reichen, den menschengemachten Klimawandel zu verlangsamen bzw. sogar zu stoppen.

Revolution in der Solarzellenproduktion: die Anlage Rock-Star

Mit ihren geringen Produktionszeiten und einer hohen Produktionsrate ist die Anlage Rock-Star eine Bereicherung in der Solarzellen Produktion und beschleunigt so die Produktion von Solarzellen in Deutschland und weltweit. Sie leistet einen nicht unerheblichen Anteil daran, das Klima mit Solarzellen und anderen Produkten nachhaltig zu stabilisieren und wird so zu einer wahren Bereicherung für die Welt.
Photo by Andres Siimon on Unsplash
Was ist das Space Valley Ottobrunn? Forschungsgebiete, Unternehmen, Vision

Was ist das Space Valley Ottobrunn? Forschungsgebiete, Unternehmen, Vision

Was zunächst nach einem neuem Blockbuster Film klingt, ist in der Tat eine Forschungsregion für Luftfahrt, Raumfahrt und Geodäsie im Ballungsraum München. Das Space Valley setzt sich aus verschiedenen Forschungseinrichtungen der Technischen Universität (TU) München und etablierten Luft- und Raumfahrtunternehmen zusammen und bildet ein einzigartiges Umfeld für Vernetzung und Kooperationen.

Die Metropolregion Münchens als Innovations-Hub

Die Fakultät für Luftfahrt, Raumfahrt und Geodäsie (LRG) der unternehmerischen TU München wurde im Frühjahr 2018 gegründet. Geodäsie beschreibt hierbei die „Wissenschaft von der Ausmessung und Abbildung der Erdoberfläche“. Die Forschungsstandorte der Universität spannen sich von Taufkirchen/Ottobrunn über München, Oberpfaffenhofen nach Garching und bilden ein zukunftsorientiertes Forschungsdreieck. Taufkirchen/Ottobrunn bildet den Hauptsitz der neuen Fakultät. Im Standort Garching befindet sich der Forschungscampus der TU München, in Oberpfaffenhofen der Forschungsflughafen und München ist das Stammgelände der TU München.

Vision des Space Valleys

Durch die Vernetzung der Forschungsstandorte im Space Valley soll das Know-how gebündelt und die Vision einer Hightech-Region realisiert werden. Auch Bayerns Ministerpräsident Markus Söder hat dem Innovationsstandort seine volle Unterstützung zugesagt und sieht im Space Valley das Potenzial, dass es sich zum primären Raumfahrtstandort in Europa entwickelt.

Das neue Silicon Valley Bayerns für die Luft- und Raumfahrtforschung

Angelehnt an das Silicon Valley im amerikanischen Kalifornien, soll die Namensgebung „Space Valley“ auf einen Innovationsstandort mit hohem Austausch zwischen Forschung und Industrie hindeuten. Die Nähe zu bereits ansässigen Luft- und Raumfahrtunternehmen und internationalen Großkonzernen war entscheidend für die Standortentscheidung der neuen TU Fakultät. In den letzten Jahren haben sich auch immer mehr Tech-Start-Ups in der Metropolregion München angesiedelt und ein einzigartiges Umfeld für Innovation und Spitzenforschung geschaffen. Mit dem Space Valley profitiert die Region von dynamischen Symbiosen zwischen Forschungseinrichtungen und etablierten Firmen mit dem Ziel eine neue wissenschaftliche und wirtschaftliche Kraft freizusetzen. Durch die Kooperationen können die Studierenden ihr Wissen direkt in der Praxis anwenden und es wird ein Raum für Netzwerke geschaffen.

Ein neuer Campus für die Fakultät in Ottobrunn

Die Fakultät für Luftfahrt, Raumfahrt und Geodäsie der TU München gehört seit Oktober 2021 zur neu gegründeten School of Engineering and Design und soll die größte Fakultät im Bereich der Luft- und Raumfahrt in Europa werden. Michael Klimke ist als Geschäftsführer der neuen Fakultät berufen wurden. Besonders dem Forschungsstandort Taufkirchen/Ottobrunn als Hauptsitz des Departments wird hohes Potenzial vorausgesagt. Im ersten Quartal 2022 wird die Fakultät in ein neu angemietetes 14.000 qm-großes Grundstück in Ottobrunn einziehen. Der dort entstehende Ludwig Bölkow Campus wird in Zusammenarbeit mit in Ottobrunn ansässigen Firmen und Forschungseinrichtungen entstehen und neben Laboren und Versuchshallen auch ein Gründerzentrum beinhalten. Langfristig soll dort ein Universitätscampus für bis zu 4000 Studierende und über 50 Professoren und weitere Hunderte Mitarbeiter erschafft werden. Das Grundstück ist im Besitz des Immobilien Joint Venture Accumulata Real Estate Group und Pamera Real Estate Partners.

Mit dem neuen Campus kommen jedoch auch Herausforderungen im Bereich der Infrastruktur auf Ottobrunn zu. Die große Zahl an neuen Studierenden und Mitarbeitern brauchen Wohnungsraum und erhöhen den Verkehr in der Gegend.

Strategische Synergien von Wissenschaft und Unternehmen im Space Valley

Neben strategischen Synergien mit Start-Ups, arbeitet die Fakultät für Luftfahrt, Raumfahrt und Geodäsie bereits unter anderem mit Airbus, der Universität der Bundeswehr, dem Munich Aerospace, dem Deutschen Zentrum für Luft- und Raumfahrt, der Industrieanlagen-Betriebsgesellschaft mbH und MTU Aero Engines AG zusammen.

Auch innerhalb der Münchner Universitäten werden Allianzen zwischen der TU München, der Munich School of Robotics and Machine Intelligence (MSRM) und dem Munich Center for Technology in Society (MCTS) im Bereich der Luft- und Raumfahrtforschung geschaffen.

Mission des Space Valleys

Dabei steht als Mission des Space Valley zunächst nicht die Forschung anderer Planeten im Vordergrund, sondern die Erforschung der Erde. Besonders die Wissensaneignung rund um unser Klima ist ein Kernziel. Langfristig sollen im bayrischen Space Valley neue Technologien entwickelt werden, die das Leben auf der Erde bereichern.

Forschungsgebiete und laufende Projekte im Space Valley

Im Fokus des Space Valleys stehen Forschungsbereiche der Erdbeobachtung, Kommunikations-und Satellitentechnik, Fernerkundung und die Forschung an unbemannten Flugkörpern.

Die TU München hat in den letzten Jahren mehrmals an Elon Musks „SpaceX Hyperloop Pod Competition“ teilgenommen und vier Mal in Folge gewonnen. Dabei hat das Studierendenteam der TU München einen Hyperloop Kapsel-Prototyps gebaut und dabei mit mit 482 km/h einen Geschwindigkeitsrekord gesetzt. Hyperloop beschreibt einen Hochgeschwindigkeitszug, der sich mit fast Schallgeschwindigkeit im Teilvakuum durch eine Röhre fortbewegt und wird als das Transportsystem der Zukunft angesehen. Mit einer Hyperloop -Infrastruktur könnte man in 40 Minuten von München nach Berlin reisen. Nun startet die Fakultät für Luftfahrt, Raumfahrt und Geodäsie ein eigenes Hyperloop-Forschungsprogramm und plant eine Teströhre am Standort Taufkirchen/Ottobrunn zu installieren.

Des Weiteren erforschen Studierende im interdisziplinären MOVE-III Projekt an der TU München Weltraumschrott und kleinste Meteorit-Partikel, um unsere Erdumgebung besser verstehen zu können. Ein anderes Projekt arbeitet an aeroelastischen Tragflächen für Flugzeuge, um das Fliegen zukünftig effizienter und somit preiswerter und umweltfreundlicher zu machen. Ein Start-Up arbeitet im Space Valley derzeit daran mit Nanosatelliten ein Frühwarnsystem zu entwickeln, um Waldbrände aus dem All eher erkennen zu können.

Der weltweite Raumfahrt-Industrie umfasst ganze 400 Milliarden Dollar und wird in den kommenden Jahrzehnten weiterwachsen und an Bedeutung gewinnen. Das Space Valley in Bayern bietet hierbei die Chance in diesem dynamischen Zukunftsmarkt weltweit vorne dabei zu sein.

Photo by NASA on Unsplash

EUV-Laser und EUV-Lithografie: Definition, Anwendungsgebiete, Beispiele

EUV-Laser und EUV-Lithografie: Definition, Anwendungsgebiete, Beispiele

Aufgrund der immer weiter fortschreitenden Digitalisierung sind Technik und Wirtschaft auf stetigen Fortschritt angewiesen. Einer der dabei wichtigsten Bereiche ist die Computerleistung. Eine starke Computerleistung ermöglicht besseres autonomes Fahren, mobile Endgeräte oder Fortschritte in dem Gebiet der künstlichen Intelligenz. Die Herausforderung in der Verbesserung besteht darin, immer mehr Transistoren auf kleinen Chips zu platzieren.

Funktionsweise der innovativen Technik

Auf kleinen Mikrochips in Smartphones befinden sich derzeit 10 Milliarden Transistoren. Diese besitzen bereits das millionenfache der Rechenleistung, die der Computer für die Mondlandung 1969 aufweisen konnte. In den Anfangsjahren der 1970er beinhalteten Mikrochips mit gleicher Größe etwa 2000 Transistoren. Gordon Moore, der Mitbegründer des Unternehmens Intel, sagte im Jahr 1965 voraus, dass sich die Anzahl der Transistoren in Chips alle zwei Jahre verdoppeln würde. In den darauffolgenden Jahrzehnten zeigte sich, dass er Recht behielt. Bekannt wurde dieses Gesetz als „Moore’s Law“. Dennoch werden Schritte, die zur Verbesserung führen nach einer gewissen Zeit bei exponentiellen Verläufen immer komplizierter.

Die Herstellung von Mikrochips erfolgt seit 40 Jahren mit der Technologie der optischen Lithografie. Strukturen von elektronischen Bauelementen werden dabei von einer Maske auf einen Wafer übertragen, der aus Silizium besteht. Das Verfahren wird um die 100 Mal wiederholt, während verschiedene Masken benutzt werden. Anschließend entsteht ein dreidimensionales Gebilde aus Leiterbahnen und Transistoren. Dabei hängt eine scharfe Abbildung von kleinen Strukturen von kleinen Wellenlängen und großen Öffnungswinkeln der Optik ab.

In den letzten Jahren geriet dieses Verfahren durch die zunehmenden Anforderungen von Technik und Wirtschaft an ihre Grenzen. Die EUV-Lithografie bietet neue Chancen und könnte diese Grenzen verschieben, was besonders interessant ist für die größten Elektrounternehmen in Deutschland. Vereinfacht gesagt, besteht ein EUV-Lithografie System aus drei wesentlichen Komponenten: Einer Strahlungsquelle mit Schutz vor Rückständen und einem Kollektor, ein Wafer mit Fotolack und eine abbildende Optik und Maske. Das neue Verfahren setzt auf andere Bereiche der Wellenlängen und fokussiert sich auf stark ultraviolettes Licht als Strahlungsquelle. Ultraviolett ist sehr kurzwellig. Zusätzlich ermöglicht die Orientierung an ausgefeilten Optik- und Spiegelsystemen die Wiedergabe von winzigen Strukturen. Der Kollektor fungiert als Sammeloptik, damit die Strahlung für den Belichtungsprozess nutzbar gemacht werden kann. Anschließend wird die Strahlung in Richtung der Lithografie-Anlage reflektiert. Eine ASLM-Anlage belichtet mehr als 170 Wafer pro Stunde. Der Lack wird durch eine optische Maske auf Wafern präzise strukturiert. Dies ermöglicht die Entstehung von feinsten Strukturen mit sieben Nanometern. Eine Veranschaulichung bietet folgender Vergleich: Das herkömmliche System arbeitete mit Wellenbereichen des Lichts von 193 Nanometern, während die EUV-Lithografie im Bereich von 13,5 Nanometern arbeitet. Durch die EUV-Lithografie werden Mikrochips hergestellt, die zehn Milliarden Transistoren beinhalten aber nur die Größe eines Fingernagels haben.

Die Technik ist nicht nur zukunftsweisend und platzsparend, sondern auch energieeffizient. Im Vergleich zu der älteren Technik mit 193 Nanometer Wellenlänge, kommt das neue Verfahren mit 50 Prozent geringerem Energiebedarf aus. Die Effizienz im Hinblick auf die Platzausnutzung konnte um 40 Prozent verbessert werden.

Anwendungsgebiete und Beispiele der EUV-Lithografie

Eine stetige Fortentwicklung im Bereich der Computerleistung kann garantieren, dass immer kleinere und schnellere Schaltkreise hergestellt werden. Gerade Sektoren wie die Wirtschaft profitieren von effizienteren Herstellungsverfahren.

Im Straßenverkehr kann es schnell zu unvorhersehbaren und gefährlichen Situationen kommen. Eine Möglichkeit zur Verbesserung der Sicherheit bietet langfristig autonomes Fahren. Dabei ist es wichtig, dass die Software nicht nur automatisch bremsen und lenken kann. Programme müssen Situationen eigenständig einschätzen können, um vorausschauend zu handeln und potenzielle Gefahren erkennen zu können. Diese Art des selbstständigen Fahrens ist noch kein Standard im heutigen Straßenverkehr. Die EUV-Techniken sind aber eine vielversprechende Möglichkeit zur dauerhaften Realisierung und Verbesserung solcher Projekte. Wichtig für das automatisierte Fahren sind Kameras und Sensoren, die helfen, Situationen auszuwerten. Dabei wird die Umgebung detailliert aufgezeichnet und analysiert. Neue Information wird mit einer hinterlegten Datenbank verglichen, um eine angemessene Reaktion zu berechnen. Verbesserte Mikrochips sind in der Lage, immer größere Datenbanken anzulegen und die vielen Informationen schnell zu verarbeiten. Das verbessert Reaktionsgeschwindigkeit und Genauigkeit.

EUV-Laser ermöglichen modere Smartphones und sämtliche enthaltenen Spezialfunktionen. Zunehmend sicherer vor Diebstahl wurden Handys durch die Einführung von Gesichtserkennung. Verschiedene spezielle Merkmale des Gesichts werden dabei von der Frontkamera an das Smartphone übermittelt, wie beispielsweise der Abstand von einem zum anderen Auge. Das eingebaute Programm gleicht die erhaltenen Daten mit den gespeicherten Informationen ab und entsperrt das Handy, wenn der Besitzer erfolgreich identifiziert werden konnte. Die Tatsache, dass Chips in den letzten Jahren immer leistungsstärker wurden, trug zur deutlichen Verbesserung der Gesichtserkennung bei. Ähnliche Softwareprogramme finden Anwendung an beispielsweise Flughäfen.

In unterschiedlichen Dienstleistungsbereichen werden Sprachassistenten und Chatbots eingesetzt, um Arbeiten zu vereinfachen. Benutzt werden diese künstlichen Intelligenzen beispielsweise im Kundenservice. Programme werden auf Webseiten angeboten und können Fragen von Konsumenten beantworten. Wenn die Software in der Datenbank keine geeignete Antwort finden kann, werden reale Mitarbeiter benötigt. Die EUV-Technik ermöglicht verbesserte Chatbots und KIs. Durch Verbesserungen sind Programme dazu in der Lage, mögliche doppeldeutigen Wörter zu erkennen und richtig zu interpretieren. Auch Wörter die falsch geschrieben wurden, können richtig erkannt und zugeordnet werden. Erweiterte Rechenleistung ermöglicht immer größere Datenbanken, auf die die KI zurückgreifen kann, um bessere Ergebnisse zu erzielen.

Auszeichnung mit dem Deutschen Zukunftspreis

Am 25. November 2020 in Berlin wurden die Gewinner des Deutschen Zukunftspreises 2020 bekanntgegeben. In einer offiziellen Feier wurden die Sieger des Projekts „EUV-Lithografie – Neues Licht für das digitale Zeitalter“ von Bundespräsident Frank-Walter Steinmeier geehrt. Mit dem Preis in den Bereichen Technik und Innovation wurde das Team aus Experten um Dr. Peter Kürz, Dr. Michael Kösters und Dr. Sergiy Yulin ausgezeichnet.

Seit dem Jahr 1997 wird der Deutsche Zukunftspreis, der zu den wichtigsten wissenschaftlichen Auszeichnungen in Deutschland gehört, vergeben. Im Fokus steht die Auszeichnung anwendungsreifer Produkte in den Bereichen Technik, Ingenieurwesen und Naturwissenschaft. Bei der Vergabe konzentriert sich die Jury auch auf das gesellschaftliche und wirtschaftliche Potenzial der innovativen Projekte. Ausgewählt werden jährlich nur drei Teams und ihre Innovationen.

Photo by Artem Bryzgalov on Unsplash
Was sind E-Ink Folien? Und wie funktionieren diese?

Was sind E-Ink Folien? Und wie funktionieren diese?

Wie funktioniert E-Ink Folie?

Die Anzeigetechnologie E-Ink Folie besteht bereits etwas länger auf dem Markt und findet durch die besondere Technologie immer mehr Anwendungsbereiche. Dabei hat die Technik Ihren Namen dadurch erhalten, dass sie eine starke visuelle Parallele zu Tinte auf Papier hat. Die bisher am häufigsten verwendeten Displays wie LED/LCD oder TN setzen auf die Idee, dass die Oberfläche aus sehr vielen einzelnen Pixeln besteht, von denen jedes eine einzige Farbe anzeigen kann.
E-Ink Folie setzt aber auf ein fortschrittliches System mit einem interessanten chemischen Konzept. Der E-Ink-Bildschirm besteht aus einer Schicht mit unzählig vielen und winzigen Kapseln. Jede einzelne Kapsel ist mit Partikeln gefüllt. Bei schwarz-weiß Bildschirmen oder Graustufendisplays sind diese Kapseln nur mit schwarzen und weißen Partikeln gefüllt. Bei farbigen Anzeigeoberflächen, sind die Kapseln meist mit Partikeln der Farben Magenta, Gelb, Cyan (Türkis) und Weiß befüllt. Diese Partikel schwimmen in einer klaren Flüssigkeit. Die Kapseln sind an der Vor- und Rückseite mit transparenten Elektroden verbunden. Diese einzelnen Partikel sind so eingestellt, dass sie sich durch elektrische Ladung bewegen lassen. Dabei hat jede Farbe eine unterschiedliche Einstellung und die Reihenfolgen der farbigen Partikel lassen sich durch elektronische Impulse verändern.

Beispiel:

In einem Graustufendisplay, sind die Partikel so eingestellt, dass die schwarzen Partikel bei einer negativen Ladung aufsteigen und die weißen Partikel bei einer positiven Ladung aufsteigen. Dabei kann jeder Bereich des Displays unterschiedliche Ladungen erhalten. Wenn die Oberfläche nun vollständige weiß sein soll, dann erhält jede Kapsel eine positive Ladung. Wenn nun ein Bereich einen schwarzen Punkt anzeigen soll, dann erhält genau dieser Bereich eine negative Ladung und verfärbt sich schwarz.
Bei E-Ink-Folien mit farbigen Bildschirmen funktioniert das Konzept gleich, nur dass die Anordnung der einzelnen Farbpartikel mehrere Ladungszustände benötigt.

Die Vorteile von E-Ink Folie: Stromverbrauch

Diese Art der Displaytechnologie ermöglicht viele Vorteile im Gegensatz, zu den herkömmlichen Methoden. Das Konzept der Anzeige von E-Ink-Folien verbraucht wesentlich weniger Strom. Der Grund dafür liegt darin, dass ein E-Ink-Display nur dann Strom benötigt, wenn eine Änderung der Farbanordnung eingeleitet wird. Herkömmliche LED-Displays verwenden durchgängig farbiges Licht. Das führt dazu, dass auch mobile Geräte mit E-Ink Folie über eine exorbitante Laufzeit der Akkus verfügen. Diese Eigenschaft führt dazu, dass es Wandbilder mit E-Ink-Technologie gibt, welche überhaupt keinen Strom verbrauchen, solange das angezeigte Bild an der Wand nicht verändert wird.

Die Vorteile von E-Ink Folie: Augenfreundlichkeit

Darüber hinaus gibt es auch im Zusammenspiel mit dem menschlichen Auge starke Vorteile von E-Ink-Displays im Gegensatz zu den herkömmlichen Anzeigetechnologien. E-Ink-Displays sind um ein vielfaches Augenschonender, beziehungsweise -freundlicher. Denn der Bildschirm flimmert nicht, was bei anderen Anzeigetechniken üblich ist. Die unterschiedlichen Kapseln ermöglichen durch die Wiedergabe der Farbe ohne Licht ein statisches Bild, welches auf das menschliche Auge ähnlich wie ein Bild an der Wand oder ein beschriebenes Blatt Papier wirkt. Das ist natürlich von Vorteil für jeden Nutzer, aber besonders für Menschen mit Sehbehinderung sind diese Displays eine deutliche Verbesserung.

Außerdem ist es allgemein bekannt, dass Displays mit LCD-Technologie im Sonnenlicht blenden. Teilweise ist das Arbeiten in der freien Sonne schlichtweg unmöglich. Wenn ein Gerät mit E-Ink-Technologie im Sonnenlicht im Einsatz ist, ist die Lesbarkeit unendlich besser.

Anwendungsbereiche: E-Book-Reader, Information, Arbeiten, Automobile

Diese besonderen Eigenschaften und Vorteile der E-Ink-Technologie haben einige Märkte revolutioniert und haben zudem neue Märkte geschaffen. Grundsätzlich sind die Anwendungsbereiche von E-Ink Folien grenzenlos, jedoch ist die Technik in einigen Bereichen besonders auf dem Vormarsch.
Besonders der Markt der E-Book-Reader wurde durch E-Ink revolutioniert. Bereits vor der Einführung der E-Ink Folie, gab es E-Book-Reader. Diese waren jedoch mit LCD-Technik versehen und haben kaum nennenswerte Durchbrüche erzielen können. Erst in der Mitte der 2010 Jahre gab es nach der Einführung der E-Ink Folie etliche Neuerscheinungen von E-Book-Readern auf dem Markt. Grund dafür war die Tatsache, dass die neue Technologie die Nachteile der bisherigen Reader größtenteils verschwinden lassen konnte und das Konzept von E-Book-Readern für den Endverbraucher wieder interessant wurde.Auch viele Anzeigetafeln werden heute noch mit herkömmlichen Anzeigetechniken betrieben. Dabei kann es sich um Werbetafeln in Stadträumen oder Informationstafeln an Flughäfen handeln. Die Ersparnis an elektrischem Strom durch ein Umrüsten der Technik auf E-Ink Folie, könnte diesen Markt ebenfalls revolutionieren.Des Weiteren können Geräte mit E-Ink-Technologie neben dem Lesen auch hervorragend zum Arbeiten genutzt werden. Auch hier sind die Vorteile der E-Ink Folie im Fokus. Durch die augenschonende Anzeige, kann auch über einen langen Zeitraum gearbeitet werden, ohne die Augen zu ermüden oder zu überfordern.Zu guter Letzt wird E-Ink Folie auch in gestalterischer Hinsicht immer öfter verwendet. Der Automobilhersteller BMW hat im Januar 2022 anlässlich der CES (Consumer Electronic Show) in Las Vegas ein neues Modell des BMW iX vorgestellt. Der BMW iX Flow hat nämlich eine besondere Eigenschaft. Er kann die Farbe der Außenhaut verändern. Darüber hinaus, können auch Farbverläufe und Muster kreiert werden. Damit gelingt BMW eine Neuerung für Luxuskarossen, welche gestalterisch neue Maßstäbe setzt. Auch hier ist E-Ink Folie im Einsatz. Und zwar ist die gesamte Karosserie damit bedeckt. So lässt sich auf Knopfdruck die Wagenfarbe verändern.

Geschichte von E-Ink Folie

E-Ink ist im Volksmund zum Namen dieser Technologie geworden. Jedoch steckt hinter dem Namen eigentlich auch das Unternehmen, welche die Folie entwickelt hat. Die E-Ink-Corporation wurde 1997 von einigen Forschern gegründet, nachdem die Technologie bereits 1996 von einigen Wissenschaftlichen und Forschern des Massachusetts Institute of Technology (MIT) entwickelt wurde. Mit dieser patentierten Technologie konnte die E-Ink-Corporation durch den E-Book-Reader-Boom 2006 in den Mainstream gelangen und wurde 2016 sogar in die Hall of Fame für nationale Erfinder in den USA aufgenommen. Seither hat E-Ink seine Technologie vielfach verbessert und überholt. So stattet E-Ink mittlerweile auch Geräte wie Tablets, Laptops oder Smartphones aus.
Source:E Ink 
Photo by @felipepelaquim on Unsplash
Was ist ein Data Center – und wieso werden diese gerade relevant?

Was ist ein Data Center – und wieso werden diese gerade relevant?

Data Center wird eine Einrichtung genannt, die über eine komplexe Rechen-, Speicher- und Netzwerk-Struktur gemeinsamen Zugriff auf Daten und Anwendungen bietet. Um sicher zu stellen, dass die Daten sicher und hochverfügbar sind, gibt es Industriestandards, die auch für die Planung und Wartung von Data Centern hilfreich sind.

Was ist ein Data Center?

In der ein oder anderen Form gibt es Data Center, auch bekannt als Rechenzentrum, schon seit dem Aufkommen der Computer. In den Tagen der raumgroßen Giganten bestand ein Data Center vielleicht aus einem Supercomputer. Als die Gerät kleiner und preiswerter wurden und die Anforderungen zunahmen, begannen immer mehr Anbieter mehrere Server miteinander zu vernetzen. Dies erhöhte die Verarbeitungsleistung beträchtlich.

Heute sind diese Server mit Kommunikationsnetzwerken verbunden, damit Menschen aus der Ferne auf die dort gespeicherten Informationen zugreifen können. In einem Raum, einem Gebäude oder mehreren Gebäuden sind oft mehrere geclusterte Server mit der zugehörigen Infrastruktur untergebracht. Moderne Rechenzentren verfügen über Hunderte oder Tausende von Servern, die rund um die Uhr laufen. Deshalb sind auch die größten Data Center Investoren Europas sehr interessiert an den Technologien.

Aufgrund der hohen Konzentration an Servern, die in Reihen übereinander gestapelt sind, werden diese Datenzentren auch als Serverfarmen bezeichnet. Data Center bieten wichtige an wie zum Beispiel:

+ Datenspeicherung
+ Backup und Recovery
+ Vernetzung
+ Datenmanagement
+ Netzwerkdienste

Rechenzentren speichern ganze Websites und stellen diese bereit. Auf den Servern werden Dienste wie E-Commerce, Cloud-Speicher, E-Mail, Instand Messaging, Online-Gaming, Finanzdienste und andere Anwendungen bereitgestellt.

So gut wie jedes Unternehmen, jede Organisation, Behörde oder wissenschaftliche Forschungseinrichtung benötigt entweder ein eigenes Rechenzentrum oder muss auf die Dienste eines Drittanbieters zurückgreifen. Einige nutzen dafür ein eigens Gebäude oder nutzen öffentliche Cloud-basierte Dienste, wie zum Beispiel Amazon, Google oder Microsoft anbieten. Die Rechenzentren großer Unternehmen sind oft über die ganze Welt verteilt, um den ständigen Zugriff auf die Daten zu gewährleisten.

Warum wir Data Center benötigen

Auch wenn die Computer-Hardware immer kleiner und immer leistungsfähiger wird, wachsen der Bedarf an Rechenleistung und Speicherung von Daten immer weiter. Ab einer bestimmten Größe benötigt jedes Unternehmen, jede Behörde, Forschungseinrichtung, soziales Netzwerk und Organisation eine enorme Rechenleistung. Ein Mangel an schnellen und zuverlässigen Daten kann dazu führen, dass wichtige Dienste nicht mehr bereitgestellt werden können und Kundenzufriedenheit und Umsatz verloren gehen.

Alle diese Daten müssen irgendwo gespeichert werden. Deshalb wandern immer mehr Daten in die Cloud, so dass sie nicht auf Arbeitscomputern gespeichert werden müssen. Auf diese Daten wird dann über Host-Server zugegriffen, deshalb verlagern viele Unternehmen auch ihre professionellen Anwendungen in die Cloud. Das wiederum senkt die Kosten für den Betrieb eigener Server und Netzwerke.

Arten von Rechenzentren

Rechenzentren variieren in ihrer Größe. Das reicht von kleinen Serverräumen bis hin zu geografisch auf dem Globus verteilten Zentren. Moderne Data Center haben sich aus einer lokalen Infrastruktur heraus entwickelt. Heute werden lokale Systeme mit Cloud-Infrastrukturen verbunden, in denen Netzwerke, Anwendungen und Workloads in mehreren privaten und öffentlichen Clouds virtualisiert werden. Folgende Arten von Rechenzentren werden unterschieden:

+ Co-Location Rechenzentren – Raum und Ressourcen werden von einem Anbieter einem Kunden zur Verfügung gestellt. Die Administration ist Aufgabe des Kundens.

+ Unternehmensrechenzentren – Diese Data Center werden von einzelnen Firmen für interne Zwecke genutzt.

+ Managed Service Rechenzentren – Hier werden Dienstleistungen wie Datenspeicherung, Computing und andere Dienste für den Kunden direkt ausgeführt.

+ Cloud-Rechenzentren – Diese Zentren sind global verteilt und werden dem Kunden oft mit Hilfe eines externen Managed-Service-Providers angeboten.

Skalierung und Design

Wenn wir an ein Data Center denken, stellen wir uns oft riesige Hallen voller Server-Racks vor, die vor sich hin blinken. Kilometerlange Kabel verbinden die Server mit Routern, Switches oder anderen Geräten. Rechenzentren gibt es jedoch in allen Größen und Konfigurationen. Sie reichen von wenigen Servern in einem Raum, bis hin zu Zehntausenden Servern in riesigen Hallen. Manche sind so groß, dass sich die Mitarbeiter mit Fahrrädern oder Elektrorollern fortbewegen.

Die Konfiguration der Server, die Netzwerktopologie und die unterstützende Infrastruktur können je nach Unternehmen, Zweck, Standort, Wachstumsrate und anfänglichem Designkonzept des Rechenzentrums stark variieren. Das Layout eines Data Centers kann die Effizienz des Datenflusses und die Umgebungsbedingungen innerhalb des Zentrums stark beeinflussen. Einige Sites können ihre Server nach Funktionen in Gruppen einteilen, wie zum Beispiel Webserver, Datenbankserver oder Anwendungsserver und Datenbankserver. Bei anderen Unternehmen kann jeder Server mehrere Aufgaben ausführen. Dafür gibt keine festen Regeln oder Standards.

Wie Rechenzentren funktionieren

Eine physikalische Grundeinheit von Rechenzentren sind zu Cluster verbundene Server. Oft sind diese von gleicher Bauart, um sie in offenen oder geschlossenen Schränken zu stapeln. Manchmal gibt aber auch unterschiedliche Typen, Größen oder Altersstufen von Servern. So existieren zum Beispiel moderne, flache Server neben alten Unix-Rechnern und riesigen Mainframes.

Jeder Server ist ein Hochleistungs-Computer, mit Arbeitsspeicher, Speicherplatz, ein Prozessor oder Prozessoren und Ein- und Ausgabe-Fähigkeit. So in etwa wie eine Personalcomputer, aber mit einem schnelleren und leistungsfähigeren Prozessor und viel mehr Speicher. Monitore, Tastaturen oder andere Peripheriegeräte stehen an einem zentralen Ort oder in einem separaten Kontrollraum, von wo aus die Geräte überwacht werden.

Netzwerke, Software und Infrastruktur

Netzwerk- und Kommunikationsgeräte sind in einem Rechenzentrum notwendig, um ein Netzwerk mit hoher Bandbreite für die Kommunikation mit der Außenwelt und zwischen den Servern und anderen Geräten innerhalb des Rechenzentrums aufrechtzuerhalten. Dazu gehören Komponenten wie Router, Switches, die Network Interface Controller (NICs) der Server und möglicherweise kilometerlange Kabel. Verkabelung gibt es in verschiedenen Formen, darunter Twisted Pair (Kupfer), Koaxial (auch Kupfer ) und Glasfaser (Glas oder Kunststoff). Die Kabeltypen und ihre verschiedenen Untertypen beeinflussen die Geschwindigkeit, mit der Informationen durch das Rechenzentrum fließen.

Andere wichtige Rechenzentrumsausrüstungen umfassen Speichergeräte (wie Festplattenlaufwerke, SSD-Laufwerke und Roboter- Bandlaufwerke), unterbrechungsfreie Stromversorgungen (USVs), Backup-Batterien, Backup-Generatoren und andere strombezogene Geräte.

Und natürlich wird Software benötigt, um all diese Hardware zu betreiben, einschließlich der verschiedenen Betriebssysteme und Anwendungen, die auf den Servern laufen, Clustering-Framework-Software wie Googles MapReduce oder Hadoop, um die Arbeit auf Hunderte oder mehr Maschinen zu verteilen, Internet-Socket-Programme Steuerung von Netzwerken, Systemüberwachungsanwendungen und Virtualisierungssoftware wie VMware, um die Anzahl der physischen Server zu reduzieren.

Virtuelle Rechenzentren

Ein virtuelles Rechenzentrum bietet die Möglichkeiten eines herkömmlichen Rechenzentrums, verwendet jedoch Cloud-basierte Ressourcen anstelle von physischen Ressourcen. Es bietet einem Unternehmen die Möglichkeit, bei Bedarf zusätzliche Infrastruktur-Ressourcen bereitzustellen, ohne physische Appliances erwerben, bereitstellen, konfigurieren und warten zu müssen. Auf diese Weise können Unternehmen die Flexibilität, Skalierbarkeit und Kosteneinsparungen des Cloud Computing nutzen.

Sicherheit des Rechenzentrums

Zusätzlich zu den Gebäudesicherheitssystemen, die eine Rechenzentrumsanlage unterstützen, erfordern die Kommunikationsnetzwerke eine gründliche Zero-Trust-Analyse. Rechenzentrums-Firewalls , Datenzugriffskontrollen, IPS , WAF und ihre modernen gleichwertigen Web Application & API Protection (WAAP)-Systeme müssen richtig spezifiziert werden, um sicherzustellen, dass sie nach Bedarf skalieren, um die Anforderungen von Rechenzentrumsnetzwerken zu erfüllen.

Wieso werden Data Center relevant

Rechenzentren sind das Rückgrat moderner Datenverarbeitung. Sie sind die Lebensader, die unsere digitale Welt am Laufen hält. Data Center sind weitaus sicherer als das Speichern von Daten auf herkömmlicher Hardware. Virtuelle Rechenzentren in der Cloud bieten neben Backup-Diensten einen besseren Sicherheitsschutz durch wirksame Firewalls und ähnliche Geräte.

Source: DataCenter 
Photo by Taylor Vick on Unsplash
Was ist das neue DeepMind Sprachmodell Gopher?

Was ist das neue DeepMind Sprachmodell Gopher?

Sprachmodelle, welche durch künstlich Intelligenzen (KI) lernen, sind in aller Munde. Meist geht die Leistung und Qualität dieser Sprachmodelle mit ihrer Größe einher. Je größer das Modell, desto besser die Leistung. Größere Modelle weißen jedoch eine höhere Intransparenz auf. Von Ethikern und Ethikerinnen wird dies kritisch gesehen, da Modelle mit steigender Modellgröße immer undurchschaubarer würden und Verzerrungen immer schlechter zu erkennen seien. Dies führt zu erheblichen ethischen Bedenken. Bei Gopher handelt es sich um ein vergleichsweise kleines Sprachmodell, welches Informationen in einer Datenbank nachschlagen kann und dadurch seine Informationen bezieht. Gopher wurde darauf trainiert freundlich zu sein und Dialoge ähnlich zu führen wie ein Mensch. Nutzer können Gopher konkrete Fragen stellen und bekommen darauf konkrete Antworten, die sich aus Informationen aus der Datenbank zusammensetzen. Dadurch kann Gopher, trotz seiner geringeren Größe, mit den großen Modellen am Markt mithalten und bleibt dabei flexibel. Das Wissen von Gopher kann durch eine Aktualisierung der Datenbank ebenfalls aufgefrischt werden, ohne dass es nötig ist, Gopher neu zu trainieren.

Die Entwicklerfirma von Gopher, Deepmind, ist dabei nicht unbekannt. Das Unternehmen wurde im Jahr 2010 gegründet und bereits 2014 von Googles Mutterkonzern, Alphabet, aufgekauft. Die Firma, welche in London ihren Hauptsitz hat, verfügt über weitere Zentren in Kanada, Frankreich und den Vereinigten Staaten. Mit Gopher hat Deepmind einen neuen Meilenstein im Bereich der Sprachmodelle gesetzt.

Mit 280 Milliarden Parametern ist Gopher zwar nicht das größte Sprachmodell, bringt jedoch durch die Verknüpfung mit der Datenbank ein enormes Potential mit sich. Im von Deepmind herausgebrachten Paper, welches über 118 Seiten lang ist, erklärt die Firma alles wissenswerte zum Sprachmodell und gibt Beispiel-Konversationen an, die die Interaktionen zwischen Gopher und dem Nutzer beschreiben. Dabei können Nutzer dem Sprachmodell Fragen zu jedem erdenklichen Thema stellen. Es spielt keine Rolle, ob die Nutzer etwas über Dinosaurier, die Relativitätstheorie oder zur Hauptstadt von Tschechien wissen wollen. Gopher hat für jegliche Fragen eine Antwort parat.

Dabei handelt es sich bei Gopher, wie bei allen größeren Sprachmodellen, um einen Transformer. Das bedeutet, dass Gopher selbst lernt (maschinelles Lernen) und eine Folge von Zeichen in eine andere Folge von Zeichen übersetzt. Das Modell wird dazu anhand von Beispiel-Daten trainiert und lernt so, wie es zu arbeiten hat. Gopher wurde anhand von 300 Milliarden Zeichen trainiert, kann aber aufgrund der Datenbank auf viel größere Mengen an Wissen zurückgreifen. Insgesamt umfasst die Datenmenge 2.3 Billionen Zeichen und ist damit um ein Vielfaches größer als die Datenmenge, die zum Training von Gopher verwendet wurde.

Gopher kann für verschiedene Bereiche eingesetzt werden und wurde insgesamt, nach der Entwicklung, in 152 Aufgaben durch Deepmind getestet und verglichen. Die Aufgaben reichten vom Faktencheck über die Sprachmodellierung bis hin zur Beantwortung diverser Fragen von Nutzern. Bei rund 80 Prozent der Aufgaben konnte sich Gopher gegen die verglichenen Konkurrenz Sprachmodelle durchsetzen, zu denen unter anderem das bekannte Modell GPT-3 zählte.

Besonders in der Gesprächsführung hatte das Modell von Deepmind die Nase vorn und zeigte hier eine hohe Konsistenz. Die natürliche Gesprächsführung ist bei Sprachmodellen, die auf künstliche Intelligenz setzen, oftmals ein Problem. Die Modelle sind zwar in der Lage einzelne, grammatikalisch korrekte Sätze zu bilden, tun sich aber schwer einen Zusammenhang über einen gesamten Abschnitt oder Text herzustellen. Dies ist für einen flüssigen Gesprächsverlauf jedoch wichtig stellt eine der großen Herausforderungen in der Entwicklung von künstlichen Sprachmodellen dar.

Ein Grund für das gute Abschneiden von Gopher liegt in der Verbindung mit der Datenbank. Dabei wird die Datenbank von Gopher wie eine Art Spickzettel oder Nachschlagewerk genutzt. Diese Datenbank wird von Gopher genutzt, um Passagen mit ähnlicher Sprache zu suchen, die damit die Vorhersage und Genauigkeit des Modells erhöhen. Deepmind nennt die Technologie des Models „Retro“ (Retrieval-Enhanced Transformer). In die deutsche Sprache übersetzt bedeutet das so viel wie ein durch Nachschlagemöglichkeiten verbesserter Transformator. Durch diese Technologie ist Gopher in der Lage mit Sprachmodellen zu konkurrieren, die um ein 25-faches größer sind.

Obwohl Gopher in vielen Bereichen überzeugt und seine Konkurrenz hinter sich lässt, hat diese KI, genau wie andere Sprachmodelle, mit den ähnlichen ethischen Problemstellungen zu kämpfen. Durch die Verknüpfung mit der Datenbank ist Gopher aus ethischer Sicht jedoch anders zu bewerten, als vergleichbare Sprachmodelle ohne Datenbank. Gopher macht transparent, welche Abschnitte der Datenbank für die Vorhersagen herangezogen wurden. Dies kann dabei helfen die Ergebnisse zu erklären und führt gleichzeitig dazu, dass es sich bei Gopher um keine reine Blackbox handelt. Weiterhin können verzerrende Einflüsse (Bias), direkt in der Datenbank abgeändert und somit eliminiert werden.

Die Tatsache, dass das Sprachmodell, obwohl es ein eher kleines Modell ist, bei den Tests seine Konkurrenz meist hinter sich gelassen hat, lässt die Frage aufkommen, wie gut große Sprachmodelle mit der Anbindung an eine Datenbank sein könnten. Diese sind aktuell jedoch noch nicht auf dem Markt und müssten, neben der Entwicklung, aus ethischer Perspektive geprüft werden.

Aktuell jedoch stellt Gopher, den Daten von Deepmind nach zu urteilen, das effizienteste Sprachmodell dar, welches durch Änderungen in der Datenbank dazulernen kann, ohne dabei komplett neu trainiert werden zu müssen.

Source: Deepmind
Holzhybridbauweise: Definition, Beispiele, Vorteile

Holzhybridbauweise: Definition, Beispiele, Vorteile

Holz als Baustoff wird seit Anbeginn der Zeit vom Menschen für den Hausbau verwendet. Holz ist leicht zu verarbeiten und lebt mit seinen Bedingungen. Holzhäuser besitzen einen unvergleichlichen Charme und sind begehrtes Wohnobjekt. Allerdings ist der reine Holzbau in seinen zulässigen Dimensionen begrenzt, bis zu fünf Stockwerken werden genehmigt. Alles, was höher ist, wird für die Holz-Konstruktion problematisch. Die Gründe dafür liegen in der Brandschutz-Verordnung und in der Statik. Seit 2008 jedoch gibt es eine intelligente und innovative Lösung für Neubauten mit sechs und mehr Stockwerken. Die Hybridbauweise kombiniert Holz mit verschiedenen Werkstoffen wie Stahl, Beton, Aluminium und Gipsfaserplatten. Es lebe die „Zusammenarbeit“, auch unter den Werkstoffen!

Gute Gründe für den Materialmix

Die gesetzliche Genehmigung für ein Bauwerk ist allerdings nicht der einzige Grund für die bevorzugte Hybridbauweise. Es sind die wirtschaftlichen Vorteile bei der Konstruktion des Hauses, die Bauherren und Architekten überzeugen. Holz ist ein beliebter Baustoff, der sich sehr gut verarbeiten lässt. In Verbindung mit Stahlbeton kann er noch einmal tragfähiger werden. Der Statiker empfiehlt bis jetzt noch für die Decken und das Fundament den Einsatz von Beton, kann zukünftig aber immer mehr auf Materialmixturen zurückgreifen, da technische Höchstleistungen in der Entwicklung von Fertigholz-Elementen neue Konstruktionen ermöglichen. Doch nicht nur die Mixtur aus Holz und Beton haben in den letzten Jahren hochmoderne Bauten entstehen lassen, auch die innovative Fertigung der holzverarbeitenden Industrie hilft, Holz stabil in die Höhe zu bringen. Das Material träg dann Namen wie Brettsperrholz oder Konstruktionsvollholz. Es zeichnet sich durch besondere Material-Eigenschaften aus. Ein weiterer Vorteil der kombinierten Bauweise ist der Zeitfaktor. Die Bauphase ist verkürzt durch die Vorfertigung. Allerdings muss gerechterweise angemerkt werden, dass die Planungsgruppe im Vorfeld mehr Zeit beansprucht. Jedenfalls ist das Hybrid-Bauen mit Holz umweltbewusst. Wird doch durch die Verwendung dieses Materials Sand als wertvoller Rohstoff eingespart. Hinsichtlich der erforderlichen Schalldämmwerte und einer Genauigkeit bei der Herstellung bestimmter Bauteile, ist die Holzhybridbauweise ebenfalls von Vorteil. Die Abnahme von Treibhausgas-Emissionen gilt schon als bewiesen. Schließlich sollen noch das Raumklima und der Wohlfühl-Aspekt erwähnt werden, wichtige Kriterien für die Bewohner.

Lebendige Beispiele

Die Holzhybridbauweise hat mittlerweile eine Vielzahl an lebendigen Beispielen. Sie stehen überall auf der ganzen Welt. So beispielsweise in Wien, 24 Geschosse hoch, heißt knapp 85 Meter, in Norwegen, eineinhalb Meter höher als in Wien und dieses gilt zugleich als das höchste Holz-Hybrid-Bauwerk der Welt. Es wurde 2019 eröffnet. Im selben Jahr sind die Wohnhäuser in Berlin-Adlershof fertig geworden. Drei Jahre zuvor gab es schon ein erfolgreiches Projekt in Kanada, ein Studentenwohnheim aus Holzelementen, und 2021 steht Pforzheim mit seinen stolzen 45 Metern. Die Holzhybridbauweise ist nicht nur eine innovative Alternative zu den herkömmlichen Stilen, sondern diese Bauform erinnert an eine natürliche Lebensweise, schenkt den Bewohnern ein positives Gefühl im Hinblick auf die Zukunft, da nachhaltig gewirtschaftet wird und das Gewissen ist im Einklang mit dem Erleben. Wohnen mit Holz entspricht den Vorstellungen des umweltbewussten Bürgers, verbraucht dieser Baustoff für seine Herstellung weitaus weniger Energie als das bei Stahl der Fall ist. Deshalb beschäftigen sich auch viele Projektentwickler in Deutschland mit dem neuartigen Wohnkonzept.

Mixtur – aber wie?

Das Holz wird in der Regel für die Gebäudehülle verwendet, der Beton gibt den Decken und dem Fahrstuhlschacht Stabilität. In einigen Projekten werden auch Holz-Beton-Verbunddecken eingesetzt. Die tragenden Holzteile sind mit Stahl versteift oder mit Gipsfaserplatten verkleidet. Zuweilen wird die Fassade mit Steinwolle unterstützt und das Treppenhaus ist aus Stahlbeton. Für die Technikleitungen und den gesamten Versorgungskern wird ebenfalls Beton verwendet, der diesen sensiblen Bereich brandsicher macht. Der Keller und die Garage sind mehrheitlich aus Beton. Da für die Fassade eine Holzschalung gewählt wird, hat der Beobachter den Eindruck, dass es sich bei dem Bauwerk um ein reines Holzhaus handelt. Und auch die Optik der Innenräume erinnert an reine Holzbauweise. Welcher Baustoff an welcher Stelle in einem Gebäude verwendet wird, ist baurechtlich nicht festgelegt, es obliegt der Fachkenntnis des Architekten und der Fantasie und dem Geldbeutel des Bauherren.

Ökonomisch – aber warum?

Kohlendioxid wird tonnenweise eingespart, einerseits bei der Produktion, aber auch dadurch, dass Holz selber Kohlendioxid speichert. Kosten-Ersparnisse durch präzise Vorkonstruktion, verbesserte Klimatechnik und schnelle Fertigung machen diese Bauweise zukunftsträchtig. Eine verkürzte Bauphase bedeutet für alle Beteiligten eine Erleichterung. Eine Reihe von Gebäuden, die durch Holzhybridbauweise entstanden sind, zählen zu den Energieeffizienz-Häusern und können unter Umständen von den Banken gefördert werden. Das Bauen mit Holz und Beton oder Aluminium hat darüber hinaus noch einen weiteren positiven Effekt. Indem weniger Staub und Lärm während der Bauphase entsteht, gewinnt diese Bauweise immer mehr Liebhaber. Durch das geringe Eigengewicht von Holz werden eine Vielzahl an schweren Maschinen nicht mehr benötigt, Flexibilität in der Funktionsweise lässt Plan- und Konstruktionsänderungen zu. Holz-Beton-Verbunddecken sind beispielsweise rückbaufähig. Einsparungen durch Holzrahmenkonstruktionen führen zu einer größeren Brutto-Geschossfläche und das bedeutet unterm Strich nicht selten eine Wohnung mehr. Und die Wohnungen, die durch die Holzhybridbauweise entstehen, bleiben für alle Bewohner bezahlbar.

Photo by Linus Mimietz on Unsplash