Monat: Januar 2022

Was sind E-Ink Folien? Und wie funktionieren diese?

Was sind E-Ink Folien? Und wie funktionieren diese?

Wie funktioniert E-Ink Folie?

Die Anzeigetechnologie E-Ink Folie besteht bereits etwas länger auf dem Markt und findet durch die besondere Technologie immer mehr Anwendungsbereiche. Dabei hat die Technik Ihren Namen dadurch erhalten, dass sie eine starke visuelle Parallele zu Tinte auf Papier hat. Die bisher am häufigsten verwendeten Displays wie LED/LCD oder TN setzen auf die Idee, dass die Oberfläche aus sehr vielen einzelnen Pixeln besteht, von denen jedes eine einzige Farbe anzeigen kann.
E-Ink Folie setzt aber auf ein fortschrittliches System mit einem interessanten chemischen Konzept. Der E-Ink-Bildschirm besteht aus einer Schicht mit unzählig vielen und winzigen Kapseln. Jede einzelne Kapsel ist mit Partikeln gefüllt. Bei schwarz-weiß Bildschirmen oder Graustufendisplays sind diese Kapseln nur mit schwarzen und weißen Partikeln gefüllt. Bei farbigen Anzeigeoberflächen, sind die Kapseln meist mit Partikeln der Farben Magenta, Gelb, Cyan (Türkis) und Weiß befüllt. Diese Partikel schwimmen in einer klaren Flüssigkeit. Die Kapseln sind an der Vor- und Rückseite mit transparenten Elektroden verbunden. Diese einzelnen Partikel sind so eingestellt, dass sie sich durch elektrische Ladung bewegen lassen. Dabei hat jede Farbe eine unterschiedliche Einstellung und die Reihenfolgen der farbigen Partikel lassen sich durch elektronische Impulse verändern.

Beispiel:

In einem Graustufendisplay, sind die Partikel so eingestellt, dass die schwarzen Partikel bei einer negativen Ladung aufsteigen und die weißen Partikel bei einer positiven Ladung aufsteigen. Dabei kann jeder Bereich des Displays unterschiedliche Ladungen erhalten. Wenn die Oberfläche nun vollständige weiß sein soll, dann erhält jede Kapsel eine positive Ladung. Wenn nun ein Bereich einen schwarzen Punkt anzeigen soll, dann erhält genau dieser Bereich eine negative Ladung und verfärbt sich schwarz.
Bei E-Ink-Folien mit farbigen Bildschirmen funktioniert das Konzept gleich, nur dass die Anordnung der einzelnen Farbpartikel mehrere Ladungszustände benötigt.

Die Vorteile von E-Ink Folie: Stromverbrauch

Diese Art der Displaytechnologie ermöglicht viele Vorteile im Gegensatz, zu den herkömmlichen Methoden. Das Konzept der Anzeige von E-Ink-Folien verbraucht wesentlich weniger Strom. Der Grund dafür liegt darin, dass ein E-Ink-Display nur dann Strom benötigt, wenn eine Änderung der Farbanordnung eingeleitet wird. Herkömmliche LED-Displays verwenden durchgängig farbiges Licht. Das führt dazu, dass auch mobile Geräte mit E-Ink Folie über eine exorbitante Laufzeit der Akkus verfügen. Diese Eigenschaft führt dazu, dass es Wandbilder mit E-Ink-Technologie gibt, welche überhaupt keinen Strom verbrauchen, solange das angezeigte Bild an der Wand nicht verändert wird.

Die Vorteile von E-Ink Folie: Augenfreundlichkeit

Darüber hinaus gibt es auch im Zusammenspiel mit dem menschlichen Auge starke Vorteile von E-Ink-Displays im Gegensatz zu den herkömmlichen Anzeigetechnologien. E-Ink-Displays sind um ein vielfaches Augenschonender, beziehungsweise -freundlicher. Denn der Bildschirm flimmert nicht, was bei anderen Anzeigetechniken üblich ist. Die unterschiedlichen Kapseln ermöglichen durch die Wiedergabe der Farbe ohne Licht ein statisches Bild, welches auf das menschliche Auge ähnlich wie ein Bild an der Wand oder ein beschriebenes Blatt Papier wirkt. Das ist natürlich von Vorteil für jeden Nutzer, aber besonders für Menschen mit Sehbehinderung sind diese Displays eine deutliche Verbesserung.

Außerdem ist es allgemein bekannt, dass Displays mit LCD-Technologie im Sonnenlicht blenden. Teilweise ist das Arbeiten in der freien Sonne schlichtweg unmöglich. Wenn ein Gerät mit E-Ink-Technologie im Sonnenlicht im Einsatz ist, ist die Lesbarkeit unendlich besser.

Anwendungsbereiche: E-Book-Reader, Information, Arbeiten, Automobile

Diese besonderen Eigenschaften und Vorteile der E-Ink-Technologie haben einige Märkte revolutioniert und haben zudem neue Märkte geschaffen. Grundsätzlich sind die Anwendungsbereiche von E-Ink Folien grenzenlos, jedoch ist die Technik in einigen Bereichen besonders auf dem Vormarsch.
Besonders der Markt der E-Book-Reader wurde durch E-Ink revolutioniert. Bereits vor der Einführung der E-Ink Folie, gab es E-Book-Reader. Diese waren jedoch mit LCD-Technik versehen und haben kaum nennenswerte Durchbrüche erzielen können. Erst in der Mitte der 2010 Jahre gab es nach der Einführung der E-Ink Folie etliche Neuerscheinungen von E-Book-Readern auf dem Markt. Grund dafür war die Tatsache, dass die neue Technologie die Nachteile der bisherigen Reader größtenteils verschwinden lassen konnte und das Konzept von E-Book-Readern für den Endverbraucher wieder interessant wurde.Auch viele Anzeigetafeln werden heute noch mit herkömmlichen Anzeigetechniken betrieben. Dabei kann es sich um Werbetafeln in Stadträumen oder Informationstafeln an Flughäfen handeln. Die Ersparnis an elektrischem Strom durch ein Umrüsten der Technik auf E-Ink Folie, könnte diesen Markt ebenfalls revolutionieren.Des Weiteren können Geräte mit E-Ink-Technologie neben dem Lesen auch hervorragend zum Arbeiten genutzt werden. Auch hier sind die Vorteile der E-Ink Folie im Fokus. Durch die augenschonende Anzeige, kann auch über einen langen Zeitraum gearbeitet werden, ohne die Augen zu ermüden oder zu überfordern.Zu guter Letzt wird E-Ink Folie auch in gestalterischer Hinsicht immer öfter verwendet. Der Automobilhersteller BMW hat im Januar 2022 anlässlich der CES (Consumer Electronic Show) in Las Vegas ein neues Modell des BMW iX vorgestellt. Der BMW iX Flow hat nämlich eine besondere Eigenschaft. Er kann die Farbe der Außenhaut verändern. Darüber hinaus, können auch Farbverläufe und Muster kreiert werden. Damit gelingt BMW eine Neuerung für Luxuskarossen, welche gestalterisch neue Maßstäbe setzt. Auch hier ist E-Ink Folie im Einsatz. Und zwar ist die gesamte Karosserie damit bedeckt. So lässt sich auf Knopfdruck die Wagenfarbe verändern.

Geschichte von E-Ink Folie

E-Ink ist im Volksmund zum Namen dieser Technologie geworden. Jedoch steckt hinter dem Namen eigentlich auch das Unternehmen, welche die Folie entwickelt hat. Die E-Ink-Corporation wurde 1997 von einigen Forschern gegründet, nachdem die Technologie bereits 1996 von einigen Wissenschaftlichen und Forschern des Massachusetts Institute of Technology (MIT) entwickelt wurde. Mit dieser patentierten Technologie konnte die E-Ink-Corporation durch den E-Book-Reader-Boom 2006 in den Mainstream gelangen und wurde 2016 sogar in die Hall of Fame für nationale Erfinder in den USA aufgenommen. Seither hat E-Ink seine Technologie vielfach verbessert und überholt. So stattet E-Ink mittlerweile auch Geräte wie Tablets, Laptops oder Smartphones aus.
Source:E Ink 
Photo by @felipepelaquim on Unsplash
Was ist ein Data Center – und wieso werden diese gerade relevant?

Was ist ein Data Center – und wieso werden diese gerade relevant?

Data Center wird eine Einrichtung genannt, die über eine komplexe Rechen-, Speicher- und Netzwerk-Struktur gemeinsamen Zugriff auf Daten und Anwendungen bietet. Um sicher zu stellen, dass die Daten sicher und hochverfügbar sind, gibt es Industriestandards, die auch für die Planung und Wartung von Data Centern hilfreich sind.

Was ist ein Data Center?

In der ein oder anderen Form gibt es Data Center, auch bekannt als Rechenzentrum, schon seit dem Aufkommen der Computer. In den Tagen der raumgroßen Giganten bestand ein Data Center vielleicht aus einem Supercomputer. Als die Gerät kleiner und preiswerter wurden und die Anforderungen zunahmen, begannen immer mehr Anbieter mehrere Server miteinander zu vernetzen. Dies erhöhte die Verarbeitungsleistung beträchtlich.

Heute sind diese Server mit Kommunikationsnetzwerken verbunden, damit Menschen aus der Ferne auf die dort gespeicherten Informationen zugreifen können. In einem Raum, einem Gebäude oder mehreren Gebäuden sind oft mehrere geclusterte Server mit der zugehörigen Infrastruktur untergebracht. Moderne Rechenzentren verfügen über Hunderte oder Tausende von Servern, die rund um die Uhr laufen. Deshalb sind auch die größten Data Center Investoren Europas sehr interessiert an den Technologien.

Aufgrund der hohen Konzentration an Servern, die in Reihen übereinander gestapelt sind, werden diese Datenzentren auch als Serverfarmen bezeichnet. Data Center bieten wichtige an wie zum Beispiel:

+ Datenspeicherung
+ Backup und Recovery
+ Vernetzung
+ Datenmanagement
+ Netzwerkdienste

Rechenzentren speichern ganze Websites und stellen diese bereit. Auf den Servern werden Dienste wie E-Commerce, Cloud-Speicher, E-Mail, Instand Messaging, Online-Gaming, Finanzdienste und andere Anwendungen bereitgestellt.

So gut wie jedes Unternehmen, jede Organisation, Behörde oder wissenschaftliche Forschungseinrichtung benötigt entweder ein eigenes Rechenzentrum oder muss auf die Dienste eines Drittanbieters zurückgreifen. Einige nutzen dafür ein eigens Gebäude oder nutzen öffentliche Cloud-basierte Dienste, wie zum Beispiel Amazon, Google oder Microsoft anbieten. Die Rechenzentren großer Unternehmen sind oft über die ganze Welt verteilt, um den ständigen Zugriff auf die Daten zu gewährleisten.

Warum wir Data Center benötigen

Auch wenn die Computer-Hardware immer kleiner und immer leistungsfähiger wird, wachsen der Bedarf an Rechenleistung und Speicherung von Daten immer weiter. Ab einer bestimmten Größe benötigt jedes Unternehmen, jede Behörde, Forschungseinrichtung, soziales Netzwerk und Organisation eine enorme Rechenleistung. Ein Mangel an schnellen und zuverlässigen Daten kann dazu führen, dass wichtige Dienste nicht mehr bereitgestellt werden können und Kundenzufriedenheit und Umsatz verloren gehen.

Alle diese Daten müssen irgendwo gespeichert werden. Deshalb wandern immer mehr Daten in die Cloud, so dass sie nicht auf Arbeitscomputern gespeichert werden müssen. Auf diese Daten wird dann über Host-Server zugegriffen, deshalb verlagern viele Unternehmen auch ihre professionellen Anwendungen in die Cloud. Das wiederum senkt die Kosten für den Betrieb eigener Server und Netzwerke.

Arten von Rechenzentren

Rechenzentren variieren in ihrer Größe. Das reicht von kleinen Serverräumen bis hin zu geografisch auf dem Globus verteilten Zentren. Moderne Data Center haben sich aus einer lokalen Infrastruktur heraus entwickelt. Heute werden lokale Systeme mit Cloud-Infrastrukturen verbunden, in denen Netzwerke, Anwendungen und Workloads in mehreren privaten und öffentlichen Clouds virtualisiert werden. Folgende Arten von Rechenzentren werden unterschieden:

+ Co-Location Rechenzentren – Raum und Ressourcen werden von einem Anbieter einem Kunden zur Verfügung gestellt. Die Administration ist Aufgabe des Kundens.

+ Unternehmensrechenzentren – Diese Data Center werden von einzelnen Firmen für interne Zwecke genutzt.

+ Managed Service Rechenzentren – Hier werden Dienstleistungen wie Datenspeicherung, Computing und andere Dienste für den Kunden direkt ausgeführt.

+ Cloud-Rechenzentren – Diese Zentren sind global verteilt und werden dem Kunden oft mit Hilfe eines externen Managed-Service-Providers angeboten.

Skalierung und Design

Wenn wir an ein Data Center denken, stellen wir uns oft riesige Hallen voller Server-Racks vor, die vor sich hin blinken. Kilometerlange Kabel verbinden die Server mit Routern, Switches oder anderen Geräten. Rechenzentren gibt es jedoch in allen Größen und Konfigurationen. Sie reichen von wenigen Servern in einem Raum, bis hin zu Zehntausenden Servern in riesigen Hallen. Manche sind so groß, dass sich die Mitarbeiter mit Fahrrädern oder Elektrorollern fortbewegen.

Die Konfiguration der Server, die Netzwerktopologie und die unterstützende Infrastruktur können je nach Unternehmen, Zweck, Standort, Wachstumsrate und anfänglichem Designkonzept des Rechenzentrums stark variieren. Das Layout eines Data Centers kann die Effizienz des Datenflusses und die Umgebungsbedingungen innerhalb des Zentrums stark beeinflussen. Einige Sites können ihre Server nach Funktionen in Gruppen einteilen, wie zum Beispiel Webserver, Datenbankserver oder Anwendungsserver und Datenbankserver. Bei anderen Unternehmen kann jeder Server mehrere Aufgaben ausführen. Dafür gibt keine festen Regeln oder Standards.

Wie Rechenzentren funktionieren

Eine physikalische Grundeinheit von Rechenzentren sind zu Cluster verbundene Server. Oft sind diese von gleicher Bauart, um sie in offenen oder geschlossenen Schränken zu stapeln. Manchmal gibt aber auch unterschiedliche Typen, Größen oder Altersstufen von Servern. So existieren zum Beispiel moderne, flache Server neben alten Unix-Rechnern und riesigen Mainframes.

Jeder Server ist ein Hochleistungs-Computer, mit Arbeitsspeicher, Speicherplatz, ein Prozessor oder Prozessoren und Ein- und Ausgabe-Fähigkeit. So in etwa wie eine Personalcomputer, aber mit einem schnelleren und leistungsfähigeren Prozessor und viel mehr Speicher. Monitore, Tastaturen oder andere Peripheriegeräte stehen an einem zentralen Ort oder in einem separaten Kontrollraum, von wo aus die Geräte überwacht werden.

Netzwerke, Software und Infrastruktur

Netzwerk- und Kommunikationsgeräte sind in einem Rechenzentrum notwendig, um ein Netzwerk mit hoher Bandbreite für die Kommunikation mit der Außenwelt und zwischen den Servern und anderen Geräten innerhalb des Rechenzentrums aufrechtzuerhalten. Dazu gehören Komponenten wie Router, Switches, die Network Interface Controller (NICs) der Server und möglicherweise kilometerlange Kabel. Verkabelung gibt es in verschiedenen Formen, darunter Twisted Pair (Kupfer), Koaxial (auch Kupfer ) und Glasfaser (Glas oder Kunststoff). Die Kabeltypen und ihre verschiedenen Untertypen beeinflussen die Geschwindigkeit, mit der Informationen durch das Rechenzentrum fließen.

Andere wichtige Rechenzentrumsausrüstungen umfassen Speichergeräte (wie Festplattenlaufwerke, SSD-Laufwerke und Roboter- Bandlaufwerke), unterbrechungsfreie Stromversorgungen (USVs), Backup-Batterien, Backup-Generatoren und andere strombezogene Geräte.

Und natürlich wird Software benötigt, um all diese Hardware zu betreiben, einschließlich der verschiedenen Betriebssysteme und Anwendungen, die auf den Servern laufen, Clustering-Framework-Software wie Googles MapReduce oder Hadoop, um die Arbeit auf Hunderte oder mehr Maschinen zu verteilen, Internet-Socket-Programme Steuerung von Netzwerken, Systemüberwachungsanwendungen und Virtualisierungssoftware wie VMware, um die Anzahl der physischen Server zu reduzieren.

Virtuelle Rechenzentren

Ein virtuelles Rechenzentrum bietet die Möglichkeiten eines herkömmlichen Rechenzentrums, verwendet jedoch Cloud-basierte Ressourcen anstelle von physischen Ressourcen. Es bietet einem Unternehmen die Möglichkeit, bei Bedarf zusätzliche Infrastruktur-Ressourcen bereitzustellen, ohne physische Appliances erwerben, bereitstellen, konfigurieren und warten zu müssen. Auf diese Weise können Unternehmen die Flexibilität, Skalierbarkeit und Kosteneinsparungen des Cloud Computing nutzen.

Sicherheit des Rechenzentrums

Zusätzlich zu den Gebäudesicherheitssystemen, die eine Rechenzentrumsanlage unterstützen, erfordern die Kommunikationsnetzwerke eine gründliche Zero-Trust-Analyse. Rechenzentrums-Firewalls , Datenzugriffskontrollen, IPS , WAF und ihre modernen gleichwertigen Web Application & API Protection (WAAP)-Systeme müssen richtig spezifiziert werden, um sicherzustellen, dass sie nach Bedarf skalieren, um die Anforderungen von Rechenzentrumsnetzwerken zu erfüllen.

Wieso werden Data Center relevant

Rechenzentren sind das Rückgrat moderner Datenverarbeitung. Sie sind die Lebensader, die unsere digitale Welt am Laufen hält. Data Center sind weitaus sicherer als das Speichern von Daten auf herkömmlicher Hardware. Virtuelle Rechenzentren in der Cloud bieten neben Backup-Diensten einen besseren Sicherheitsschutz durch wirksame Firewalls und ähnliche Geräte.

Source: DataCenter 
Photo by Taylor Vick on Unsplash
Was ist das neue DeepMind Sprachmodell Gopher?

Was ist das neue DeepMind Sprachmodell Gopher?

Sprachmodelle, welche durch künstlich Intelligenzen (KI) lernen, sind in aller Munde. Meist geht die Leistung und Qualität dieser Sprachmodelle mit ihrer Größe einher. Je größer das Modell, desto besser die Leistung. Größere Modelle weißen jedoch eine höhere Intransparenz auf. Von Ethikern und Ethikerinnen wird dies kritisch gesehen, da Modelle mit steigender Modellgröße immer undurchschaubarer würden und Verzerrungen immer schlechter zu erkennen seien. Dies führt zu erheblichen ethischen Bedenken. Bei Gopher handelt es sich um ein vergleichsweise kleines Sprachmodell, welches Informationen in einer Datenbank nachschlagen kann und dadurch seine Informationen bezieht. Gopher wurde darauf trainiert freundlich zu sein und Dialoge ähnlich zu führen wie ein Mensch. Nutzer können Gopher konkrete Fragen stellen und bekommen darauf konkrete Antworten, die sich aus Informationen aus der Datenbank zusammensetzen. Dadurch kann Gopher, trotz seiner geringeren Größe, mit den großen Modellen am Markt mithalten und bleibt dabei flexibel. Das Wissen von Gopher kann durch eine Aktualisierung der Datenbank ebenfalls aufgefrischt werden, ohne dass es nötig ist, Gopher neu zu trainieren.

Die Entwicklerfirma von Gopher, Deepmind, ist dabei nicht unbekannt. Das Unternehmen wurde im Jahr 2010 gegründet und bereits 2014 von Googles Mutterkonzern, Alphabet, aufgekauft. Die Firma, welche in London ihren Hauptsitz hat, verfügt über weitere Zentren in Kanada, Frankreich und den Vereinigten Staaten. Mit Gopher hat Deepmind einen neuen Meilenstein im Bereich der Sprachmodelle gesetzt.

Mit 280 Milliarden Parametern ist Gopher zwar nicht das größte Sprachmodell, bringt jedoch durch die Verknüpfung mit der Datenbank ein enormes Potential mit sich. Im von Deepmind herausgebrachten Paper, welches über 118 Seiten lang ist, erklärt die Firma alles wissenswerte zum Sprachmodell und gibt Beispiel-Konversationen an, die die Interaktionen zwischen Gopher und dem Nutzer beschreiben. Dabei können Nutzer dem Sprachmodell Fragen zu jedem erdenklichen Thema stellen. Es spielt keine Rolle, ob die Nutzer etwas über Dinosaurier, die Relativitätstheorie oder zur Hauptstadt von Tschechien wissen wollen. Gopher hat für jegliche Fragen eine Antwort parat.

Dabei handelt es sich bei Gopher, wie bei allen größeren Sprachmodellen, um einen Transformer. Das bedeutet, dass Gopher selbst lernt (maschinelles Lernen) und eine Folge von Zeichen in eine andere Folge von Zeichen übersetzt. Das Modell wird dazu anhand von Beispiel-Daten trainiert und lernt so, wie es zu arbeiten hat. Gopher wurde anhand von 300 Milliarden Zeichen trainiert, kann aber aufgrund der Datenbank auf viel größere Mengen an Wissen zurückgreifen. Insgesamt umfasst die Datenmenge 2.3 Billionen Zeichen und ist damit um ein Vielfaches größer als die Datenmenge, die zum Training von Gopher verwendet wurde.

Gopher kann für verschiedene Bereiche eingesetzt werden und wurde insgesamt, nach der Entwicklung, in 152 Aufgaben durch Deepmind getestet und verglichen. Die Aufgaben reichten vom Faktencheck über die Sprachmodellierung bis hin zur Beantwortung diverser Fragen von Nutzern. Bei rund 80 Prozent der Aufgaben konnte sich Gopher gegen die verglichenen Konkurrenz Sprachmodelle durchsetzen, zu denen unter anderem das bekannte Modell GPT-3 zählte.

Besonders in der Gesprächsführung hatte das Modell von Deepmind die Nase vorn und zeigte hier eine hohe Konsistenz. Die natürliche Gesprächsführung ist bei Sprachmodellen, die auf künstliche Intelligenz setzen, oftmals ein Problem. Die Modelle sind zwar in der Lage einzelne, grammatikalisch korrekte Sätze zu bilden, tun sich aber schwer einen Zusammenhang über einen gesamten Abschnitt oder Text herzustellen. Dies ist für einen flüssigen Gesprächsverlauf jedoch wichtig stellt eine der großen Herausforderungen in der Entwicklung von künstlichen Sprachmodellen dar.

Ein Grund für das gute Abschneiden von Gopher liegt in der Verbindung mit der Datenbank. Dabei wird die Datenbank von Gopher wie eine Art Spickzettel oder Nachschlagewerk genutzt. Diese Datenbank wird von Gopher genutzt, um Passagen mit ähnlicher Sprache zu suchen, die damit die Vorhersage und Genauigkeit des Modells erhöhen. Deepmind nennt die Technologie des Models „Retro“ (Retrieval-Enhanced Transformer). In die deutsche Sprache übersetzt bedeutet das so viel wie ein durch Nachschlagemöglichkeiten verbesserter Transformator. Durch diese Technologie ist Gopher in der Lage mit Sprachmodellen zu konkurrieren, die um ein 25-faches größer sind.

Obwohl Gopher in vielen Bereichen überzeugt und seine Konkurrenz hinter sich lässt, hat diese KI, genau wie andere Sprachmodelle, mit den ähnlichen ethischen Problemstellungen zu kämpfen. Durch die Verknüpfung mit der Datenbank ist Gopher aus ethischer Sicht jedoch anders zu bewerten, als vergleichbare Sprachmodelle ohne Datenbank. Gopher macht transparent, welche Abschnitte der Datenbank für die Vorhersagen herangezogen wurden. Dies kann dabei helfen die Ergebnisse zu erklären und führt gleichzeitig dazu, dass es sich bei Gopher um keine reine Blackbox handelt. Weiterhin können verzerrende Einflüsse (Bias), direkt in der Datenbank abgeändert und somit eliminiert werden.

Die Tatsache, dass das Sprachmodell, obwohl es ein eher kleines Modell ist, bei den Tests seine Konkurrenz meist hinter sich gelassen hat, lässt die Frage aufkommen, wie gut große Sprachmodelle mit der Anbindung an eine Datenbank sein könnten. Diese sind aktuell jedoch noch nicht auf dem Markt und müssten, neben der Entwicklung, aus ethischer Perspektive geprüft werden.

Aktuell jedoch stellt Gopher, den Daten von Deepmind nach zu urteilen, das effizienteste Sprachmodell dar, welches durch Änderungen in der Datenbank dazulernen kann, ohne dabei komplett neu trainiert werden zu müssen.

Source: Deepmind
Holzhybridbauweise: Definition, Beispiele, Vorteile

Holzhybridbauweise: Definition, Beispiele, Vorteile

Holz als Baustoff wird seit Anbeginn der Zeit vom Menschen für den Hausbau verwendet. Holz ist leicht zu verarbeiten und lebt mit seinen Bedingungen. Holzhäuser besitzen einen unvergleichlichen Charme und sind begehrtes Wohnobjekt. Allerdings ist der reine Holzbau in seinen zulässigen Dimensionen begrenzt, bis zu fünf Stockwerken werden genehmigt. Alles, was höher ist, wird für die Holz-Konstruktion problematisch. Die Gründe dafür liegen in der Brandschutz-Verordnung und in der Statik. Seit 2008 jedoch gibt es eine intelligente und innovative Lösung für Neubauten mit sechs und mehr Stockwerken. Die Hybridbauweise kombiniert Holz mit verschiedenen Werkstoffen wie Stahl, Beton, Aluminium und Gipsfaserplatten. Es lebe die „Zusammenarbeit“, auch unter den Werkstoffen!

Gute Gründe für den Materialmix

Die gesetzliche Genehmigung für ein Bauwerk ist allerdings nicht der einzige Grund für die bevorzugte Hybridbauweise. Es sind die wirtschaftlichen Vorteile bei der Konstruktion des Hauses, die Bauherren und Architekten überzeugen. Holz ist ein beliebter Baustoff, der sich sehr gut verarbeiten lässt. In Verbindung mit Stahlbeton kann er noch einmal tragfähiger werden. Der Statiker empfiehlt bis jetzt noch für die Decken und das Fundament den Einsatz von Beton, kann zukünftig aber immer mehr auf Materialmixturen zurückgreifen, da technische Höchstleistungen in der Entwicklung von Fertigholz-Elementen neue Konstruktionen ermöglichen. Doch nicht nur die Mixtur aus Holz und Beton haben in den letzten Jahren hochmoderne Bauten entstehen lassen, auch die innovative Fertigung der holzverarbeitenden Industrie hilft, Holz stabil in die Höhe zu bringen. Das Material träg dann Namen wie Brettsperrholz oder Konstruktionsvollholz. Es zeichnet sich durch besondere Material-Eigenschaften aus. Ein weiterer Vorteil der kombinierten Bauweise ist der Zeitfaktor. Die Bauphase ist verkürzt durch die Vorfertigung. Allerdings muss gerechterweise angemerkt werden, dass die Planungsgruppe im Vorfeld mehr Zeit beansprucht. Jedenfalls ist das Hybrid-Bauen mit Holz umweltbewusst. Wird doch durch die Verwendung dieses Materials Sand als wertvoller Rohstoff eingespart. Hinsichtlich der erforderlichen Schalldämmwerte und einer Genauigkeit bei der Herstellung bestimmter Bauteile, ist die Holzhybridbauweise ebenfalls von Vorteil. Die Abnahme von Treibhausgas-Emissionen gilt schon als bewiesen. Schließlich sollen noch das Raumklima und der Wohlfühl-Aspekt erwähnt werden, wichtige Kriterien für die Bewohner.

Lebendige Beispiele

Die Holzhybridbauweise hat mittlerweile eine Vielzahl an lebendigen Beispielen. Sie stehen überall auf der ganzen Welt. So beispielsweise in Wien, 24 Geschosse hoch, heißt knapp 85 Meter, in Norwegen, eineinhalb Meter höher als in Wien und dieses gilt zugleich als das höchste Holz-Hybrid-Bauwerk der Welt. Es wurde 2019 eröffnet. Im selben Jahr sind die Wohnhäuser in Berlin-Adlershof fertig geworden. Drei Jahre zuvor gab es schon ein erfolgreiches Projekt in Kanada, ein Studentenwohnheim aus Holzelementen, und 2021 steht Pforzheim mit seinen stolzen 45 Metern. Die Holzhybridbauweise ist nicht nur eine innovative Alternative zu den herkömmlichen Stilen, sondern diese Bauform erinnert an eine natürliche Lebensweise, schenkt den Bewohnern ein positives Gefühl im Hinblick auf die Zukunft, da nachhaltig gewirtschaftet wird und das Gewissen ist im Einklang mit dem Erleben. Wohnen mit Holz entspricht den Vorstellungen des umweltbewussten Bürgers, verbraucht dieser Baustoff für seine Herstellung weitaus weniger Energie als das bei Stahl der Fall ist. Deshalb beschäftigen sich auch viele Projektentwickler in Deutschland mit dem neuartigen Wohnkonzept.

Mixtur – aber wie?

Das Holz wird in der Regel für die Gebäudehülle verwendet, der Beton gibt den Decken und dem Fahrstuhlschacht Stabilität. In einigen Projekten werden auch Holz-Beton-Verbunddecken eingesetzt. Die tragenden Holzteile sind mit Stahl versteift oder mit Gipsfaserplatten verkleidet. Zuweilen wird die Fassade mit Steinwolle unterstützt und das Treppenhaus ist aus Stahlbeton. Für die Technikleitungen und den gesamten Versorgungskern wird ebenfalls Beton verwendet, der diesen sensiblen Bereich brandsicher macht. Der Keller und die Garage sind mehrheitlich aus Beton. Da für die Fassade eine Holzschalung gewählt wird, hat der Beobachter den Eindruck, dass es sich bei dem Bauwerk um ein reines Holzhaus handelt. Und auch die Optik der Innenräume erinnert an reine Holzbauweise. Welcher Baustoff an welcher Stelle in einem Gebäude verwendet wird, ist baurechtlich nicht festgelegt, es obliegt der Fachkenntnis des Architekten und der Fantasie und dem Geldbeutel des Bauherren.

Ökonomisch – aber warum?

Kohlendioxid wird tonnenweise eingespart, einerseits bei der Produktion, aber auch dadurch, dass Holz selber Kohlendioxid speichert. Kosten-Ersparnisse durch präzise Vorkonstruktion, verbesserte Klimatechnik und schnelle Fertigung machen diese Bauweise zukunftsträchtig. Eine verkürzte Bauphase bedeutet für alle Beteiligten eine Erleichterung. Eine Reihe von Gebäuden, die durch Holzhybridbauweise entstanden sind, zählen zu den Energieeffizienz-Häusern und können unter Umständen von den Banken gefördert werden. Das Bauen mit Holz und Beton oder Aluminium hat darüber hinaus noch einen weiteren positiven Effekt. Indem weniger Staub und Lärm während der Bauphase entsteht, gewinnt diese Bauweise immer mehr Liebhaber. Durch das geringe Eigengewicht von Holz werden eine Vielzahl an schweren Maschinen nicht mehr benötigt, Flexibilität in der Funktionsweise lässt Plan- und Konstruktionsänderungen zu. Holz-Beton-Verbunddecken sind beispielsweise rückbaufähig. Einsparungen durch Holzrahmenkonstruktionen führen zu einer größeren Brutto-Geschossfläche und das bedeutet unterm Strich nicht selten eine Wohnung mehr. Und die Wohnungen, die durch die Holzhybridbauweise entstehen, bleiben für alle Bewohner bezahlbar.

Photo by Linus Mimietz on Unsplash