Autore: admin

COME FUNZIONA IL PROCESSO DI STAMPA DELLE CELLE SOLARI FRAUNHOFER?

COME FUNZIONA IL PROCESSO DI STAMPA DELLE CELLE SOLARI FRAUNHOFER?

Produzione di celle solari ad alto livello

In collaborazione con Asys Automatisierungssysteme GmbH, Fraunhofer ISE ha sviluppato un processo per la metallizzazione delle celle solari di silicio. Con l’aiuto di questo processo, è possibile produrre celle solari in un sistema ad alta produttività in una frazione del tempo precedente. Il che avvantaggia soprattutto i più grandi produttori di moduli solari. Il rivestimento è realizzato con i processi di stampa serigrafica rotativa e flessografica.
Il sistema, chiamato Rock-Star, lavora una volta e mezzo più velocemente di altri sistemi, con un rendimento fino a 8000 pezzi all’ora. Si possono usare anche parti per altre aree come l’elettronica di potenza, la tecnologia dell’idrogeno e la tecnologia dei sensori. Il tempo di ciclo è ridotto a soli 0,6 secondi per cella solare, che è un enorme miglioramento nella gestione del tempo rispetto ai precedenti 0,9 secondi del processo di stampa serigrafica in piano.

Funzione del sistema

La linea ha un sistema di trasporto ad alta velocità completamente nuovo. Durante la produzione dei componenti, i componenti vengono trasportati su navette ad alta velocità e precisione oltre le unità di stampa della Gallus Ferd Rüesch AG, un’azienda di ingegneria meccanica svizzera, e rivestiti nel processo.
È possibile aggiungere un’unità di stampa serigrafica rotativa e un’unità di stampa flessografica. Alcuni processi di stampa e rivestimento, come la stampa rotocalco, possono anche essere integrati grazie al design. In questo modo, i componenti possono essere trasportati a 600 mm/s e stampati con precisione. Con la metallizzazione delle celle solari, le sbarre e le griglie delle celle sono attaccate alla cella solare tramite serigrafia.

Storia dell’Istituto Fraunhofer

Il Fraunhofer Institute for Solar Energy Systems appartiene alla Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. (Società Fraunhofer per la promozione della ricerca applicata) e si trova a Freiburg im Breisgau. È stata fondata nel 1981 da Adolf Goetzberger. Nel 1983 è stato sviluppato il primo inverter ISE completamente elettronico. Nel 1986, qui è stato creato il primo prodotto di serie con un collettore fluorescente per la fornitura di energia, e nel 1989 è stato aperto il primo laboratorio in camera bianca per lo sviluppo di celle solari. Dal 1998, sono stati prodotti anche strati assorbenti solari selettivi per collettori solari termici.
In generale, l’istituto è dedicato alla ricerca applicata e allo sviluppo in ingegneria e scienze naturali nel campo della tecnologia solare e del fotovoltaico. C’è uno stabilimento fuori sede a Gelsenkirchen che produce celle solari. L’istituto è il più grande istituto di ricerca solare in Europa con oltre 1100 dipendenti e un budget di circa 83,5 milioni di euro.

Il Frauenhofer Institute copre 66 sedi con oltre 22.000 dipendenti in Germania. La struttura Rock-Star è stata fondata dal Dr. Florian Clement, che è il capo del dipartimento di tecnologia di strutturazione e produzione e di metallizzazione al Fraunhofer ISE, ed è stato il suo direttore fin dall’inizio.

Storia di ASYS Automatisierungssysteme GmbH

ASYS Automatisierungssysteme GmbH è stata fondata nel 1992 come azienda di ingegneria meccanica a Dornstadt da Werner Kreibl e Klaus Mang. Tra le altre cose, produce stampanti per stencil e serigrafie, che vengono utilizzate per rivestire i circuiti stampati con pasta di saldatura e le celle solari con pasta di metallizzazione. L’azienda produce anche sistemi di manipolazione per la produzione di elettronica e tecnologia di automazione per la tecnologia medica e l’industria farmaceutica. Il fatturato di ASYS Automatisierungs- GmbH è di circa 151 milioni di euro all’anno. L’azienda impiega circa 1300 persone e copre circa il 75% della linea di produzione SMT.

Contributo alla protezione del clima

Con le celle solari, che ora possono essere prodotte molto più velocemente, il cambiamento climatico può essere ridotto almeno leggermente. L’elettricità rinnovabile è usata qui invece di affidarsi a fonti di energia convenzionali e non rinnovabili come il petrolio o il gas, il cui uso porta più anidride carbonica nell’atmosfera rispetto all’elettricità rinnovabile. Naturalmente, la produzione accelerata di celle solari è solo un piccolo contributo alla protezione del clima. Ma se sempre più persone passano alle celle solari, l’effetto aumenterà giorno dopo giorno. Così, con abbastanza partecipazione, potrebbe essere sufficiente per rallentare o addirittura fermare il cambiamento climatico causato dall’uomo.
Rivoluzione nella produzione di celle solari: l’impianto Rock-Star
Con i suoi brevi tempi di produzione e l’alto tasso di produzione, l’impianto Rock-Star è una risorsa nella produzione di celle solari e accelera così la produzione di celle solari in Germania e nel mondo. Dà un contributo non indifferente alla stabilizzazione sostenibile del clima con celle solari e altri prodotti, diventando così un vero e proprio bene per il mondo.

Photo by Andres Siimon on Unsplash

Cos’è la Space Valley Ottobrunn? Aree di ricerca, aziende, visione

Cos’è la Space Valley Ottobrunn? Aree di ricerca, aziende, visione

Quello che all’inizio sembra un nuovo film di successo è in realtà una regione di ricerca per l’aeronautica, lo spazio e la geodesia nella conurbazione di Monaco. La Space Valley è composta da varie istituzioni di ricerca dell’Università Tecnica (TU) di Monaco e da aziende aerospaziali affermate e forma un ambiente unico per il networking e la cooperazione.

La regione metropolitana di Monaco come centro di innovazione

La Facoltà di Aeronautica, Astronautica e Geodesia (LRG) dell’imprenditoriale TU Munich è stata fondata nella primavera del 2018. La geodesia descrive la “scienza della misurazione e della mappatura della superficie terrestre”. Le sedi di ricerca dell’università si estendono da Taufkirchen/Ottobrunn a Monaco, Oberpfaffenhofen a Garching e formano un triangolo di ricerca orientato al futuro. Taufkirchen/Ottobrunn è la sede della nuova facoltà. Garching ospita il campus di ricerca della TU Munich, Oberpfaffenhofen l’aeroporto di ricerca e Monaco il campus principale della TU Munich.

Visione della Space Valley

Mettendo in rete i luoghi di ricerca nella Space Valley, il know-how deve essere unito e la visione di una regione ad alta tecnologia realizzata. Il ministro-presidente della Baviera, Markus Söder, ha anche promesso il suo pieno sostegno al luogo di innovazione e vede il potenziale per la Space Valley di diventare il principale luogo spaziale in Europa.

La nuova Silicon Valley bavarese per la ricerca aerospaziale

Ispirato alla Silicon Valley in California, il nome “Space Valley” vuole indicare un luogo di innovazione con un alto livello di scambio tra ricerca e industria. La vicinanza alle aziende aerospaziali e alle grandi società internazionali già basate qui è stato un fattore decisivo nella decisione della nuova facoltà TU di stabilirsi qui. Negli ultimi anni, sempre più start-up tecnologiche si sono stabilite nella regione metropolitana di Monaco, creando un ambiente unico per l’innovazione e la ricerca all’avanguardia. Con la Space Valley, la regione beneficia di simbiosi dinamiche tra istituti di ricerca e aziende affermate con l’obiettivo di scatenare una nuova forza scientifica ed economica. Attraverso le cooperazioni, gli studenti possono applicare le loro conoscenze direttamente nella pratica e si crea uno spazio per il networking.

Un nuovo campus per la facoltà a Ottobrunn

La Facoltà di Aeronautica, Astronautica e Geodesia della TU Munich fa parte della neonata Scuola di Ingegneria e Design dall’ottobre 2021 ed è destinata a diventare la più grande facoltà nel campo dell’aeronautica e dell’astronautica in Europa. Michael Klimke è stato nominato amministratore delegato della nuova facoltà. Soprattutto la località di ricerca Taufkirchen/Ottobrunn, come sede del dipartimento, è destinata ad avere un alto potenziale. Nel primo trimestre del 2022, la facoltà si trasferirà in una proprietà di 14.000 mq appena affittata a Ottobrunn. Il Campus Ludwig Bölkow in costruzione sarà sviluppato in collaborazione con le aziende e le istituzioni di ricerca situate a Ottobrunn e comprenderà un centro di start-up oltre a laboratori e sale di prova. A lungo termine, un campus universitario per un massimo di 4.000 studenti e più di 50 professori e centinaia di altri impiegati deve essere creato lì. La proprietà è di proprietà della joint venture immobiliare Accumulata Real Estate Group e Pamera Real Estate Partners.

Tuttavia, il nuovo campus porta anche delle sfide infrastrutturali a Ottobrunn. Il gran numero di nuovi studenti e impiegati avrà bisogno di spazio abitativo e aumenterà il traffico nella zona.

Sinergie strategiche di scienza e business nella Space Valley

Oltre alle sinergie strategiche con le start-up, la facoltà di aeronautica, astronautica e geodesia sta già lavorando con Airbus, l’università delle forze armate tedesche, Munich Aerospace, il centro aerospaziale tedesco, Industrieanlagen-Betriebsgesellschaft mbH e MTU Aero Engines AG, tra gli altri.

Si stanno anche creando delle alleanze all’interno delle università di Monaco tra la TU Munich, la Munich School of Robotics and Machine Intelligence (MSRM) e il Munich Center for Technology in Society (MCTS) nel campo della ricerca aerospaziale.

Missione della Space Valley

La missione iniziale della Space Valley non è quella di ricercare altri pianeti, ma di esplorare la Terra. In particolare, l’acquisizione di conoscenze sul nostro clima è un obiettivo fondamentale. A lungo termine, nella Space Valley bavarese saranno sviluppate nuove tecnologie che arricchiranno la vita sulla Terra.

Aree di ricerca e progetti attuali nella Space Valley

La Space Valley si concentra sulle aree di ricerca dell’osservazione della terra, delle comunicazioni e della tecnologia satellitare, del telerilevamento e della ricerca sui veicoli aerei senza equipaggio.

Negli ultimi anni, la TU di Monaco ha partecipato più volte alla “SpaceX Hyperloop Pod Competition” di Elon Musk e ha vinto quattro volte di fila. Nel processo, il team di studenti della TU Munich ha costruito un prototipo di capsula Hyperloop e ha stabilito un record di velocità di 482 km/h nel processo. Hyperloop descrive un treno ad alta velocità che viaggia attraverso un tubo a quasi la velocità del suono in un vuoto parziale ed è considerato il sistema di trasporto del futuro. Con un’infrastruttura Hyperloop, si potrebbe viaggiare da Monaco a Berlino in 40 minuti. Ora la Facoltà di Aeronautica, Astronautica e Geodesia sta iniziando il proprio programma di ricerca Hyperloop e prevede di installare un tubo di prova nel sito di Taufkirchen/Ottobrunn.

Inoltre, gli studenti del progetto interdisciplinare MOVE-III alla TU di Monaco stanno facendo ricerche sui detriti spaziali e sulle minuscole particelle di meteorite per capire meglio il nostro ambiente terrestre. Un altro progetto sta lavorando su ali aeroelastiche per aerei per rendere il volo più efficiente e quindi più economico ed ecologico in futuro. Una start-up nella Space Valley sta attualmente lavorando allo sviluppo di un sistema di allarme preventivo con nanosatelliti per essere in grado di rilevare prima gli incendi boschivi dallo spazio.

L’industria spaziale globale ha un valore totale di 400 miliardi di dollari e continuerà a crescere e ad acquisire importanza nei prossimi decenni. La Space Valley in Baviera offre l’opportunità di essere all’avanguardia di questo dinamico mercato futuro.

Photo by NASA on Unsplash

Laser EUV e litografia EUV: definizione, applicazioni, esempi

Laser EUV e litografia EUV: definizione, applicazioni, esempi

A causa della crescente digitalizzazione, la tecnologia e l’economia dipendono da un costante progresso. Una delle aree più importanti è la performance del computer. Una forte performance del computer permette una migliore guida autonoma, dispositivi mobili o progressi nel campo dell’intelligenza artificiale. La sfida del miglioramento è di mettere sempre più transistor su piccoli chip.

Come funziona la tecnologia innovativa

Attualmente ci sono 10 miliardi di transistor su piccoli microchip negli smartphone. Questi hanno già un milione di volte la potenza di calcolo del computer usato per sbarcare sulla luna nel 1969. All’inizio degli anni ’70, i microchip della stessa dimensione contenevano circa 2000 transistor. Gordon Moore, il cofondatore di Intel, aveva previsto nel 1965 che il numero di transistor nei chip sarebbe raddoppiato ogni due anni. Nei decenni successivi, si è scoperto che aveva ragione. Questa legge è diventata nota come “Legge di Moore”. Tuttavia, i passi che portano al miglioramento diventano sempre più complicati dopo un certo tempo in progressioni esponenziali.

I microchip sono stati prodotti per 40 anni utilizzando la tecnologia della litografia ottica. Le strutture dei componenti elettronici sono trasferite da una maschera a un wafer di silicio. Il processo viene ripetuto circa 100 volte mentre vengono utilizzate maschere diverse. Il risultato è una struttura tridimensionale di conduttori e transistor. Un’immagine nitida di piccole strutture dipende da piccole lunghezze d’onda e grandi angoli di apertura dell’ottica.

Negli ultimi anni, questo processo ha raggiunto i suoi limiti a causa delle crescenti esigenze della tecnologia e del business. La litografia EUV offre nuove opportunità e potrebbe spingere questi limiti, il che è particolarmente interessante per le più grandi aziende elettriche in Germania. In parole povere, un sistema di litografia EUV consiste di tre componenti essenziali: Una fonte di radiazione con protezione dei residui e un collettore, un wafer con fotoresist e un’ottica e una maschera di imaging. Il nuovo processo utilizza altre gamme di lunghezze d’onda e si concentra sulla forte luce ultravioletta come fonte di radiazione. L’ultravioletto ha una lunghezza d’onda molto corta. Inoltre, l’orientamento su sistemi ottici e specchi sofisticati permette la riproduzione di strutture minuscole. Il collettore agisce come un’ottica di raccolta in modo che la radiazione possa essere imbrigliata per il processo di esposizione. La radiazione viene poi riflessa verso il sistema di litografia. Un sistema ASLM espone più di 170 wafer all’ora. La lacca è strutturata con precisione da una maschera ottica su wafer. Questo permette la creazione di strutture finissime con sette nanometri. Il seguente confronto fornisce un’illustrazione: il sistema convenzionale lavorava con bande d’onda di luce di 193 nanometri, mentre la litografia EUV lavora nella gamma di 13,5 nanometri. La litografia EUV produce microchip che contengono dieci miliardi di transistor ma che sono grandi quanto un’unghia.

La tecnologia non è solo orientata al futuro e al risparmio di spazio, ma anche all’efficienza energetica. Rispetto alla vecchia tecnologia con una lunghezza d’onda di 193 nanometri, il nuovo processo richiede il 50% di energia in meno. L’efficienza in termini di utilizzo dello spazio è stata migliorata del 40%.

Aree di applicazione ed esempi di litografia EUV

Il continuo sviluppo nel campo delle prestazioni dei computer può garantire la produzione di circuiti sempre più piccoli e veloci. Settori come l’economia in particolare beneficiano di processi di produzione più efficienti.

Nel traffico stradale, possono sorgere rapidamente situazioni imprevedibili e pericolose. A lungo termine, la guida autonoma offre una possibilità per migliorare la sicurezza. Qui è importante che il software non sia solo in grado di frenare e sterzare automaticamente. I programmi devono essere in grado di valutare autonomamente le situazioni per agire con lungimiranza e riconoscere i potenziali pericoli. Questo tipo di guida autonoma non è ancora standard nel traffico stradale di oggi. Tuttavia, le tecniche EUV sono un modo promettente per realizzare e migliorare permanentemente tali progetti. Importanti per la guida automatizzata sono le telecamere e i sensori che aiutano a valutare le situazioni. L’ambiente viene registrato e analizzato in dettaglio. Le nuove informazioni vengono confrontate con un database memorizzato per calcolare una risposta appropriata. I microchip migliorati sono in grado di creare database sempre più grandi e di elaborare rapidamente la grande quantità di informazioni. Questo migliora la velocità di reazione e la precisione.

I laser EUV rendono possibili i moderni smartphone e tutte le funzioni speciali che contengono. I telefoni cellulari sono diventati sempre più sicuri contro il furto con l’introduzione del riconoscimento facciale. Varie caratteristiche speciali del viso sono trasmesse dalla fotocamera frontale allo smartphone, come la distanza da un occhio all’altro. Il programma integrato confronta i dati ricevuti con le informazioni memorizzate e sblocca il telefono cellulare se il proprietario può essere identificato con successo. Il fatto che i chip siano diventati sempre più potenti negli ultimi anni ha contribuito al miglioramento significativo del riconoscimento facciale. Programmi software simili sono usati negli aeroporti, per esempio.

In vari settori di servizi, gli assistenti vocali e i chatbot sono utilizzati per semplificare il lavoro. Queste intelligenze artificiali sono utilizzate nel servizio clienti, per esempio. I programmi sono offerti su siti web e possono rispondere alle domande dei consumatori. Se il software non riesce a trovare una risposta adatta nel database, sono necessari dei veri dipendenti. La tecnologia EUV permette di migliorare i chatbot e le IA. Grazie ai miglioramenti, i programmi sono in grado di riconoscere e interpretare correttamente eventuali parole ambigue. Anche le parole sbagliate possono essere riconosciute e abbinate correttamente. L’aumento della potenza di calcolo consente database sempre più grandi a cui l’IA può attingere per ottenere risultati migliori.

Premiato con il Premio tedesco per il futuro

Il 25 novembre 2020 a Berlino sono stati annunciati i vincitori del Deutscher Zukunftspreis 2020. In una cerimonia ufficiale, i vincitori del progetto “EUV Lithography – New Light for the Digital Age” sono stati premiati dal presidente federale Frank-Walter Steinmeier. Il team di esperti guidato dal dottor Peter Kürz, il dottor Michael Kösters e il dottor Sergiy Yulin ha ricevuto il premio nei settori della tecnologia e dell’innovazione.

Il Premio tedesco per il futuro, uno dei più importanti premi scientifici in Germania, viene assegnato dal 1997. L’attenzione è rivolta a onorare i prodotti che sono pronti per l’applicazione nei campi della tecnologia, dell’ingegneria e delle scienze naturali. Nell’assegnare il premio, la giuria si concentra anche sul potenziale sociale ed economico dei progetti innovativi. Solo tre squadre e le loro innovazioni sono selezionate ogni anno.

Photo by Artem Bryzgalov on Unsplash

COSA SONO LE PELLICOLE E-INK? E COME FUNZIONANO?

COSA SONO LE PELLICOLE E-INK? E COME FUNZIONANO?

Il nostro mondo oggi è dominato dall’ingegneria elettrica e dalla digitalizzazione. Il livello di sviluppo dei dispositivi elettronici è in forte aumento. Mentre 25 anni fa pochissime persone avevano un telefono cellulare, oggi quasi tutti hanno un computer high-tech in tasca. Questo trend di sviluppo in forte crescita genera costantemente nuove innovazioni e progressi tecnologici. Dato che ogni famiglia tedesca è equipaggiata con una media da cinque a dieci schermi elettronici, non sorprende che la ricerca continui anche nella tecnologia dei display e che molti concetti interessanti vengano sviluppati e resi commerciabili. Oltre ai convenzionali display LED/LCD o ai display con tecnologia TN, da qualche tempo sono disponibili anche i display e-ink, cioè i display con “inchiostro elettronico”. Queste sono anche conosciute come pellicole e-ink o carta elettronica. Cosa c’è dietro e come funziona esattamente questa tecnologia è discusso nel seguente articolo.

Come funziona la pellicola E-Ink?

La tecnologia di visualizzazione E-Ink Film è sul mercato da qualche tempo e sta trovando sempre più applicazioni grazie alla sua speciale tecnologia. La tecnologia ha preso il suo nome dal fatto che ha un forte parallelo visivo con l’inchiostro su carta. I display più comunemente usati finora, come LED/LCD o TN, si basano sull’idea che la superficie sia composta da molti singoli pixel, ognuno dei quali può visualizzare un singolo colore.
La pellicola e-ink, tuttavia, si basa su un sistema avanzato con un concetto chimico interessante. Lo schermo E-Ink consiste in uno strato con innumerevoli e minuscole capsule. Ogni singola capsula è piena di particelle. Negli schermi in bianco e nero o in scala di grigi, queste capsule sono riempite solo di particelle bianche e nere. Per le superfici di visualizzazione colorate, le capsule sono solitamente riempite con particelle dei colori magenta, giallo, ciano (turchese) e bianco. Queste particelle galleggiano in un liquido chiaro. Le capsule sono collegate ad elettrodi trasparenti nella parte anteriore e posteriore. Queste particelle individuali sono regolate in modo che possano essere spostate dalla carica elettrica. In questo processo, ogni colore ha un’impostazione diversa e le sequenze delle particelle colorate possono essere cambiate da impulsi elettronici.

Esempio:

In una visualizzazione in scala di grigi, le particelle sono impostate in modo che le particelle nere salgono quando c’è una carica negativa e le particelle bianche salgono quando c’è una carica positiva. Ogni area del display può ricevere cariche diverse. Ora, se la superficie deve essere completamente bianca, allora ogni capsula riceve una carica positiva. Se un’area deve mostrare un punto nero, allora esattamente quest’area riceve una carica negativa e diventa nera.
Con le pellicole e-ink con schermi colorati, il concetto funziona allo stesso modo, tranne che la disposizione delle singole particelle di colore richiede diversi stati di carica.

I vantaggi della pellicola e-ink: il consumo di energia

Questo tipo di tecnologia di visualizzazione offre molti vantaggi rispetto ai metodi tradizionali. Il concetto di visualizzazione delle lamine e-ink consuma molto meno energia. Questo perché un display e-ink richiede energia solo quando viene avviato un cambiamento nella disposizione dei colori. I display a LED convenzionali utilizzano una luce colorata in tutto. Di conseguenza, i dispositivi mobili con pellicola E-Ink hanno anche una durata della batteria esorbitante. Questa caratteristica significa che ci sono murales con tecnologia e-ink che non consumano affatto energia finché l’immagine visualizzata sul muro non viene modificata.

I vantaggi della pellicola E-Ink: facilità d’occhio

Inoltre, ci sono anche forti vantaggi dei display e-ink rispetto alle tecnologie di visualizzazione convenzionali nella loro interazione con l’occhio umano. I display e-ink sono molto più facili da vedere. Questo perché lo schermo non sfarfalla, cosa comune con altre tecnologie di visualizzazione. Riproducendo il colore senza luce, le diverse capsule permettono un’immagine statica che ha un effetto simile all’occhio umano come una foto sul muro o un foglio di carta scritto. Questo è ovviamente un vantaggio per ogni utente, ma soprattutto per le persone con problemi di vista, questi display sono un miglioramento significativo.

È anche risaputo che i display con tecnologia LCD sono abbaglianti alla luce del sole. In alcuni casi, lavorare in pieno sole è semplicemente impossibile. Quando un dispositivo con tecnologia e-ink è in uso alla luce del sole, la leggibilità è infinitamente migliore.

Aree di applicazione: Lettori di e-book, informazione, lavoro, automobili.

Queste caratteristiche speciali e i vantaggi della tecnologia e-ink hanno rivoluzionato alcuni mercati e hanno anche creato nuovi mercati. In linea di principio, le aree di applicazione delle pellicole e-ink sono illimitate, ma la tecnologia sta guadagnando terreno in alcuni settori in particolare.
Il mercato degli e-book reader in particolare è stato rivoluzionato dall’e-ink. C’erano già lettori di e-book prima dell’introduzione della pellicola e-ink. Tuttavia, questi erano dotati di tecnologia LCD e difficilmente sono stati in grado di ottenere progressi significativi. Non è stato fino alla metà degli anni 2010, dopo l’introduzione della pellicola e-ink, che diversi nuovi lettori di e-book sono apparsi sul mercato. La ragione di ciò era il fatto che la nuova tecnologia era in grado di far scomparire in gran parte gli svantaggi dei lettori precedenti e il concetto di lettori di e-book divenne nuovamente interessante per il consumatore finale.Molti tabelloni sono ancora oggi gestiti con tecnologie di visualizzazione convenzionali. Questi possono essere cartelli pubblicitari negli spazi cittadini o cartelli informativi negli aeroporti. Il risparmio di energia elettrica convertendo la tecnologia alla pellicola e-ink potrebbe anche rivoluzionare questo mercato. Inoltre, i dispositivi con tecnologia e-ink possono essere utilizzati in modo eccellente anche per il lavoro oltre alla lettura. Anche qui, l’attenzione si concentra sui vantaggi della lamina e-ink. Grazie al display che non affatica gli occhi, il lavoro può essere svolto per un lungo periodo di tempo senza stancare o affaticare gli occhi.Last but not least, la pellicola E-Ink viene utilizzata sempre di più anche in termini di design. La casa automobilistica BMW ha presentato un nuovo modello della BMW iX al CES (Consumer Electronic Show) di Las Vegas nel gennaio 2022. In particolare, la BMW iX Flow ha una caratteristica speciale. Può cambiare il colore della pelle esterna. Inoltre, si possono anche creare gradienti di colore e modelli. BMW è riuscita così a creare un’innovazione per le auto di lusso che stabilisce nuovi standard nel design. Anche qui si usa la lamina di inchiostro elettronico. Tutto il corpo ne è ricoperto. Questo permette di cambiare il colore dell’auto con la semplice pressione di un pulsante.

Storia della pellicola E-Ink

E-Ink è diventato il nome popolare di questa tecnologia. Tuttavia, dietro il nome c’è in realtà la società che ha sviluppato il film. La E-Ink Corporation è stata fondata nel 1997 da alcuni ricercatori dopo che la tecnologia è stata sviluppata da alcuni scienziati e ricercatori del Massachusetts Institute of Technology (MIT) nel 1996. Con questa tecnologia brevettata, la E-Ink Corporation è stata in grado di entrare nel mainstream attraverso il boom degli e-book reader nel 2006 ed è stata anche inserita nella Hall of Fame degli inventori nazionali negli Stati Uniti nel 2016. Da allora, E-Ink ha migliorato e rivisto la sua tecnologia molte volte. L’e-ink ora equipaggia anche dispositivi come tablet, laptop e smartphone.

Source:E Ink 
Photo by @felipepelaquim on Unsplash
Cos’è un centro dati – e perché stanno diventando importanti proprio ora?

Cos’è un centro dati – e perché stanno diventando importanti proprio ora?

Data center è il nome dato a una struttura che fornisce accesso condiviso ai dati e alle applicazioni attraverso una complessa struttura di calcolo, stoccaggio e rete. Per garantire che i dati siano sicuri e altamente disponibili, ci sono standard industriali che sono anche utili per la pianificazione e la manutenzione dei data center.

Cos’è un centro dati?

In una forma o nell’altra, i data center, noti anche come centri dati, esistono dall’avvento dei computer. Ai tempi dei colossi delle dimensioni di una stanza, un centro dati poteva consistere in un supercomputer. Man mano che le apparecchiature diventavano più piccole e meno costose e le richieste aumentavano, sempre più fornitori iniziarono a collegare in rete più server. Questo ha aumentato considerevolmente la potenza di elaborazione.

Oggi, questi server sono collegati alle reti di comunicazione in modo che le persone possano accedere a distanza alle informazioni memorizzate. Una stanza, un edificio o diversi edifici spesso ospitano diversi server in cluster con le loro infrastrutture associate. I moderni data center hanno centinaia o migliaia di server in funzione 24 ore su 24. Questo è il motivo per cui anche i maggiori investitori europei in data center sono molto interessati alle tecnologie.

A causa dell’alta concentrazione di server impilati in file, questi data center sono anche chiamati server farm. I centri dati offrono servizi importanti come:

+ Memorizzazione dei dati
+ Backup e recupero
+ rete
+ Gestione dei dati
+ Servizi di rete

I centri dati immagazzinano e consegnano interi siti web. I server forniscono servizi come e-commerce, cloud storage, e-mail, messaggistica Instand, giochi online, servizi finanziari e altre applicazioni.

Quasi ogni azienda, organizzazione, agenzia governativa o istituto di ricerca scientifica ha bisogno di un proprio centro dati o deve affidarsi ai servizi di un fornitore terzo. Alcuni usano il proprio edificio per questo scopo o usano servizi pubblici basati su cloud, come quelli offerti da Amazon, Google o Microsoft. I data center delle grandi aziende sono spesso distribuiti in tutto il mondo per garantire un accesso costante ai dati.

Perché abbiamo bisogno di centri dati

Anche se l’hardware dei computer sta diventando sempre più piccolo e sempre più potente, il bisogno di potenza di calcolo e di memorizzazione dei dati continua a crescere. Al di sopra di una certa dimensione, ogni azienda, agenzia governativa, istituto di ricerca, rete sociale e organizzazione richiede un’enorme potenza di calcolo. Una mancanza di dati veloci e affidabili può portare all’incapacità di fornire servizi importanti e una perdita di soddisfazione del cliente e di entrate.

Tutti questi dati devono essere conservati da qualche parte. Questo è il motivo per cui sempre più dati si stanno spostando nel cloud, in modo che non debbano essere memorizzati sui computer di lavoro. Questi dati sono poi accessibili tramite server host, ed è per questo che molte aziende stanno anche spostando le loro applicazioni professionali nel cloud. Questo a sua volta riduce il costo di gestione dei propri server e reti.

Tipi di centri dati

I centri dati variano per dimensioni. Vanno da piccole stanze di server a centri distribuiti geograficamente in tutto il mondo. I moderni data center si sono evoluti da un’infrastruttura locale. Oggi, i sistemi locali sono collegati a infrastrutture cloud in cui reti, applicazioni e carichi di lavoro sono virtualizzati in più cloud privati e pubblici. Si distinguono i seguenti tipi di centri dati:

+ Co-location data centres – lo spazio e le risorse sono fornite da un fornitore a un cliente. L’amministrazione è responsabilità del cliente.

+ Data center aziendali – Questi data center sono utilizzati da singole aziende per scopi interni.

+ Managed Service Data Centres – Qui i servizi come l’immagazzinamento dei dati, il calcolo e altri servizi sono eseguiti direttamente per il cliente.

+ Centri dati cloud – Questi centri sono distribuiti a livello globale e sono spesso offerti al cliente con l’aiuto di un fornitore esterno di servizi gestiti.

Scalabilità e design

Quando pensiamo a un data center, spesso immaginiamo enormi sale piene di rack di server che lampeggiano. Chilometri di cavi collegano i server ai router, agli switch o ad altre apparecchiature. Tuttavia, i data center sono disponibili in tutte le dimensioni e configurazioni. Si va da pochi server in una stanza, a decine di migliaia di server in sale enormi. Alcuni sono così grandi che il personale si sposta su biciclette o scooter elettrici.

La configurazione dei server, la topologia di rete e l’infrastruttura di supporto possono variare notevolmente a seconda dell’azienda, dello scopo, dell’ubicazione, del tasso di crescita e del concetto iniziale di progettazione del centro dati. Il layout di un centro dati può influenzare notevolmente l’efficienza del flusso di dati e le condizioni ambientali all’interno del centro. Alcuni siti possono raggruppare i loro server per funzione, come server web, server di database, o server di applicazioni e server di database. Per altri, ogni server può eseguire più compiti. Non ci sono regole o standard prestabiliti per questo.

Come funzionano i centri dati

Un’unità fisica di base dei data center sono i server collegati per formare dei cluster. Spesso sono dello stesso tipo, in modo che possano essere impilati in armadi aperti o chiusi. A volte, però, ci sono diversi tipi, dimensioni o età di server. Per esempio, server moderni e piatti esistono accanto a vecchi computer Unix ed enormi mainframe.

Ogni server è un computer ad alte prestazioni, con memoria, stoccaggio, uno o più processori e capacità di input/output. Un po’ come un personal computer, ma con un processore più veloce e potente e molta più memoria. I monitor, le tastiere o altre periferiche si trovano in una posizione centrale o in una sala di controllo separata da dove i dispositivi sono monitorati.

Reti, software e infrastrutture

I dispositivi di rete e di comunicazione sono necessari in un centro dati per mantenere una rete ad alta larghezza di banda per la comunicazione con il mondo esterno e tra i server e altri dispositivi all’interno del centro dati. Questo include componenti come router, switch, controller di interfaccia di rete (NIC) dei server e potenzialmente miglia di cavo. Il cablaggio è disponibile in varie forme, tra cui il doppino intrecciato (rame), il coassiale (anch’esso rame) e la fibra (vetro o plastica). I tipi di cavi e i loro vari sottotipi influenzano la velocità con cui le informazioni fluiscono nel centro dati.

Altre importanti attrezzature del data center includono dispositivi di archiviazione (come hard disk, unità SSD e unità a nastro robotizzate), gruppi di continuità (UPS), batterie di backup, generatori di backup e altri dispositivi legati all’alimentazione.

E, naturalmente, il software è necessario per far funzionare tutto questo hardware, compresi i vari sistemi operativi e le applicazioni che girano sui server, il software di clustering framework come MapReduce o Hadoop di Google per distribuire il lavoro su centinaia o più macchine, le reti di controllo dei programmi internet socket, le applicazioni di monitoraggio del sistema e il software di virtualizzazione come VMware per ridurre il numero di server fisici.

Centri dati virtuali

Un data center virtuale offre le capacità di un data center tradizionale, ma utilizza risorse basate su cloud invece di risorse fisiche. Fornisce a un’organizzazione la capacità di fornire risorse infrastrutturali aggiuntive, se necessario, senza dover acquistare, distribuire, configurare e mantenere apparecchi fisici. In questo modo, le aziende possono approfittare della flessibilità, della scalabilità e del risparmio di costi del cloud computing.

Sicurezza del centro dati

Oltre ai sistemi di sicurezza dell’edificio che supportano una struttura di data center, le reti di comunicazione richiedono un’analisi approfondita della fiducia zero. I firewall dei data center, i controlli di accesso ai dati, gli IPS, i WAF e i loro moderni sistemi equivalenti di Web Application & API Protection (WAAP) devono essere specificati correttamente per garantire la loro scalabilità in base alle esigenze della rete dei data center.

Perché i centri dati diventano rilevanti

I data center sono la spina dorsale dell’informatica moderna. Sono l’ancora di salvezza che fa funzionare il nostro mondo digitale. I data center sono molto più sicuri dell’archiviazione dei dati sull’hardware tradizionale. I data center virtuali nel cloud offrono una migliore protezione della sicurezza attraverso firewall efficaci e dispositivi simili, oltre a servizi di backup.

Source: DataCenter 
Photo by Taylor Vick on Unsplash
COS’È IL NUOVO MODELLO LINGUISTICO DEEPMIND GOPHER?

COS’È IL NUOVO MODELLO LINGUISTICO DEEPMIND GOPHER?

I modelli linguistici che imparano attraverso l’intelligenza artificiale (AI) sono sulla bocca di tutti. Di solito, le prestazioni e la qualità di questi modelli linguistici vanno di pari passo con le loro dimensioni. Più grande è il modello, migliore è la performance. Tuttavia, i modelli più grandi sono più opachi. Questo è visto criticamente dagli etici, poiché i modelli diventano sempre più opachi con l’aumentare delle dimensioni del modello e le distorsioni diventano sempre più difficili da rilevare. Questo porta a notevoli preoccupazioni etiche. Gopher è un modello di linguaggio relativamente piccolo che può cercare informazioni in un database e ottenere le sue informazioni da lì. Gopher è stato addestrato ad essere amichevole e a condurre il dialogo in modo simile ad un umano. Gli utenti possono porre domande concrete a Gopher e ricevere risposte concrete, che sono composte da informazioni dal database. Questo permette a Gopher, nonostante le sue dimensioni ridotte, di tenere il passo con i grandi modelli sul mercato pur rimanendo flessibile. La conoscenza di Gopher può anche essere aggiornata aggiornando il database senza la necessità di ri-addestrare Gopher.

La società sviluppatrice di Gopher, Deepmind, non è sconosciuta in questo contesto. L’azienda è stata fondata nel 2010 e acquistata dalla società madre di Google, Alphabet, nel 2014. L’azienda, che ha la sua sede centrale a Londra, ha altri centri in Canada, Francia e Stati Uniti. Con Gopher, Deepmind ha posto una nuova pietra miliare nel campo dei modelli linguistici.

Con 280 miliardi di parametri, Gopher non è il più grande modello di lingua, ma porta con sé un enorme potenziale attraverso il suo collegamento al database. Nel documento pubblicato da Deepmind, che è di oltre 118 pagine, l’azienda spiega tutto ciò che vale la pena sapere sul modello linguistico e fornisce conversazioni di esempio che descrivono le interazioni tra Gopher e l’utente. Gli utenti possono fare domande al modello linguistico su qualsiasi argomento immaginabile. Non importa se gli utenti vogliono conoscere i dinosauri, la teoria della relatività o la capitale della Repubblica Ceca. Gopher ha una risposta per ogni domanda.

Gopher, come tutti i modelli di linguaggio più grandi, è un trasformatore. Questo significa che Gopher impara da solo (apprendimento automatico) e traduce una sequenza di caratteri in un’altra sequenza di caratteri. Il modello è addestrato a fare questo utilizzando dati campione e quindi impara a lavorare. Gopher è stato addestrato su 300 miliardi di caratteri, ma può attingere a quantità molto più grandi di conoscenza grazie al database. In totale, la quantità di dati comprende 2,3 trilioni di caratteri ed è quindi molto più grande della quantità di dati utilizzati per addestrare Gopher.

Gopher può essere usato per diverse aree ed è stato testato e confrontato in 152 compiti da Deepmind dopo il suo sviluppo. I compiti andavano dal fact checking alla modellazione del linguaggio, fino a rispondere a varie domande degli utenti. In circa l’80% dei compiti, Gopher è stato in grado di prevalere sui modelli linguistici concorrenti confrontati, che includevano il noto modello GPT-3.

Il modello Deepmind è risultato migliore, soprattutto nella conversazione, dove ha mostrato un alto grado di coerenza. La conversazione naturale è spesso un problema con i modelli linguistici che si basano sull’intelligenza artificiale. Anche se i modelli sono in grado di formare frasi individuali, grammaticalmente corrette, hanno difficoltà a stabilire un contesto su un’intera sezione o testo. Questo è importante per una conversazione fluente, tuttavia, ed è una delle principali sfide nello sviluppo di modelli di linguaggio artificiale.

Una ragione per le buone prestazioni di Gopher è la sua connessione al database. Qui, il database di Gopher è usato come una sorta di foglio di calcolo o libro di riferimento. Questo database è usato da Gopher per cercare passaggi con un linguaggio simile, il che aumenta la predizione e la precisione del modello. Deepmind chiama la tecnologia del modello “Retro” (Retrieval-Enhanced Transformer). Tradotto in tedesco, questo significa qualcosa come un trasformatore arricchito da capacità di ricerca. Attraverso questa tecnologia, Gopher è in grado di competere con modelli linguistici che sono 25 volte più grandi.

Anche se Gopher è convincente in molte aree e lascia indietro i suoi concorrenti, questa IA, proprio come altri modelli linguistici, deve lottare con simili questioni etiche. Tuttavia, a causa del legame con il database, Gopher deve essere valutato diversamente da un punto di vista etico rispetto a modelli linguistici comparabili senza un database. Gopher rende trasparente quali sezioni del database sono state utilizzate per le previsioni. Questo può aiutare a spiegare i risultati e allo stesso tempo porta al fatto che Gopher non è una pura scatola nera. Inoltre, le influenze distorsive (bias) possono essere cambiate direttamente nel database e quindi eliminate.

Il fatto che il modello di lingua, anche se un modello piuttosto piccolo, di solito supera i suoi concorrenti nei test, solleva la questione di quanto possano essere buoni i modelli di lingua di grandi dimensioni con una connessione a un database. Tuttavia, questi non sono attualmente sul mercato e dovrebbero essere testati da un punto di vista etico, oltre allo sviluppo.

Attualmente, tuttavia, Gopher è il modello linguistico più efficiente, a giudicare dai dati di Deepmind, che può imparare attraverso i cambiamenti nel database senza dover essere completamente addestrato.

Source: Deepmind
Costruzione ibrida in legno: Definizione, esempi, vantaggi

Costruzione ibrida in legno: Definizione, esempi, vantaggi

Il legno come materiale da costruzione è stato usato dall’uomo per la costruzione di case fin dall’inizio dei tempi. Il legno è facile da lavorare e vive con le sue condizioni. Le case in legno hanno un fascino incomparabile e sono proprietà residenziali ricercate. Tuttavia, la costruzione in puro legno è limitata nelle sue dimensioni ammissibili, sono approvati fino a cinque piani. Qualsiasi cosa più alta diventa problematica per la costruzione in legno. Le ragioni di questo risiedono nelle norme antincendio e nella statica. Dal 2008, però, c’è una soluzione intelligente e innovativa per i nuovi edifici di sei o più piani. Il metodo di costruzione ibrido combina il legno con diversi materiali come l’acciaio, il cemento, l’alluminio e i pannelli di fibra di gesso. Viva la “cooperazione”, anche tra i materiali!

Buone ragioni per il mix di materiali

Tuttavia, l’approvazione legale di un edificio non è l’unica ragione per preferire il metodo di costruzione ibrido. Sono i vantaggi economici nella costruzione della casa che convincono i costruttori e gli architetti. Il legno è un materiale da costruzione popolare che è molto facile da lavorare. In combinazione con il cemento armato, può diventare ancora più portante. L’ingegnere strutturale raccomanda ancora l’uso del calcestruzzo per i soffitti e le fondamenta, ma in futuro potrà ricorrere sempre di più a miscele di materiali, poiché le massime conquiste tecniche nello sviluppo di elementi prefabbricati in legno rendono possibili nuove costruzioni. Ma non è solo la miscela di legno e cemento che ha dato origine a edifici ultramoderni negli ultimi anni; anche la produzione innovativa dell’industria di lavorazione del legno contribuisce a rendere il legno stabile in altezza. Il materiale porta poi nomi come cross laminated timber o solid structural timber. È caratterizzato da proprietà speciali del materiale. Un altro vantaggio del metodo di costruzione combinato è il fattore tempo. La fase di costruzione è accorciata dalla prefabbricazione. Tuttavia, bisogna notare giustamente che il gruppo di pianificazione richiede più tempo in anticipo. In ogni caso, la costruzione ibrida con il legno è attenta all’ambiente. Dopo tutto, l’uso di questo materiale salva la sabbia come preziosa materia prima. Per quanto riguarda i valori di isolamento acustico richiesti e la precisione nella fabbricazione di alcuni componenti, il metodo di costruzione ibrida in legno è anche vantaggioso. La riduzione delle emissioni di gas serra è già stata dimostrata. Infine, il clima interno e l’aspetto di benessere dovrebbero essere menzionati, criteri importanti per gli occupanti.

Esempi viventi

Il metodo di costruzione ibrida in legno ha ora un gran numero di esempi viventi. Si possono trovare in tutto il mondo. Per esempio, a Vienna, 24 piani di altezza significa poco meno di 85 metri, in Norvegia, un metro e mezzo più alto di Vienna e questo è anche considerato l’edificio ibrido in legno più alto del mondo. È stato aperto nel 2019. Nello stesso anno furono completati gli edifici residenziali di Berlin-Adlershof. Tre anni prima c’era già un progetto di successo in Canada, una residenza per studenti fatta di elementi in legno, e nel 2021 Pforzheim si erge con i suoi orgogliosi 45 metri. La costruzione ibrida in legno non è solo un’alternativa innovativa agli stili convenzionali, ma questa forma di costruzione ricorda uno stile di vita naturale, dà ai residenti una sensazione positiva riguardo al futuro, poiché viene praticata una gestione sostenibile e la coscienza è in armonia con l’esperienza. Vivere con il legno corrisponde alle idee del cittadino attento all’ambiente, poiché questo materiale da costruzione consuma molta meno energia per la sua produzione rispetto all’acciaio. Ecco perché molti sviluppatori di progetti in Germania stanno guardando a questo nuovo tipo di concetto abitativo.

Miscela – ma come?

Il legno è di solito usato per l’involucro dell’edificio, il cemento dà stabilità ai soffitti e al vano ascensore. In alcuni progetti, si usano anche soffitti compositi in legno-calcestruzzo. Le parti portanti in legno sono irrigidite con acciaio o rivestite con pannelli di gessofibra. A volte la facciata è sostenuta con lana di roccia e la scala è in cemento armato. Il calcestruzzo è utilizzato anche per le linee tecniche e l’intero nucleo di alimentazione, rendendo questa zona sensibile a prova di fuoco. La cantina e il garage sono per lo più in cemento. Poiché il rivestimento in legno è stato scelto per la facciata, l’osservatore ha l’impressione che la struttura sia puramente una casa in legno. E anche l’aspetto degli interni ricorda la pura costruzione in legno. Quale materiale da costruzione sia usato dove in un edificio non è specificato dalla legge edilizia; sta alla competenza dell’architetto e all’immaginazione e al portafoglio del costruttore.

Economico – ma perché?

L’anidride carbonica viene risparmiata a tonnellate, da un lato durante la produzione, ma anche perché il legno stesso immagazzina anidride carbonica. I risparmi sui costi attraverso una precisa pre-costruzione, una migliore tecnologia di condizionamento dell’aria e una produzione veloce rendono questo metodo di costruzione promettente per il futuro. Una fase di costruzione abbreviata significa sollievo per tutte le persone coinvolte. Un certo numero di edifici costruiti con metodi di costruzione ibridi in legno contano come case ad alta efficienza energetica e possono essere ammissibili per i sussidi bancari. Costruire con legno e cemento o alluminio ha anche un altro effetto positivo. Poiché c’è meno polvere e rumore durante la fase di costruzione, questo metodo di costruzione sta diventando sempre più popolare. Il basso peso morto del legno significa che non sono più necessari molti macchinari pesanti, e la flessibilità nel modo di lavorare permette di cambiare i piani e la costruzione. I soffitti compositi legno-calcestruzzo, per esempio, possono essere decostruiti. I risparmi ottenuti con le costruzioni a telaio in legno portano a una maggiore superficie lorda del pavimento e, a conti fatti, questo significa spesso un appartamento in più. E gli appartamenti creati dalla costruzione ibrida in legno rimangono accessibili a tutti i residenti.

Photo by Linus Mimietz on Unsplash