Categoría: Uncategorized

¿CÓMO FUNCIONA EL PROCESO DE IMPRESIÓN DE CÉLULAS SOLARES FRAUNHOFER?

¿CÓMO FUNCIONA EL PROCESO DE IMPRESIÓN DE CÉLULAS SOLARES FRAUNHOFER?

Producción de células solares de alto nivel

En colaboración con Asys Automatisierungssysteme GmbH, el Fraunhofer ISE ha desarrollado un proceso para metalizar células solares de silicio. Con la ayuda de este proceso, es posible producir células solares en un sistema de alto rendimiento en una fracción del tiempo anterior. Lo que beneficia sobre todo a los mayores fabricantes de módulos solares. El revestimiento se realiza con los procesos de serigrafía rotativa e impresión flexográfica.
El sistema, denominado Rock-Star, funciona una vez y media más rápido que otros sistemas, con un rendimiento de hasta 8000 piezas por hora. También se pueden utilizar piezas para otros ámbitos, como la electrónica de potencia, la tecnología del hidrógeno y la tecnología de sensores. El tiempo del ciclo se reduce a sólo 0,6 segundos por célula solar, lo que supone una enorme mejora en la gestión del tiempo en comparación con los 0,9 segundos anteriores en el proceso de serigrafía plana.

Función del sistema

La línea cuenta con un sistema de transporte de alto rendimiento completamente nuevo. Durante la producción de los componentes, éstos se transportan en lanzaderas a gran velocidad y precisión pasando por unidades de impresión fabricadas por Gallus Ferd Rüesch AG, una empresa de ingeniería mecánica de Suiza, y se recubren en el proceso.
Se puede añadir una unidad de serigrafía rotativa y una unidad de impresión flexográfica. Algunos procesos de impresión y recubrimiento, como la impresión en huecograbado, también pueden integrarse gracias a su diseño. De este modo, los componentes pueden ser transportados a 600 mm/s y ser impresos con precisión. Al metalizar las células solares, las barras colectoras y las rejillas de las células se fijan a la célula solar mediante serigrafía.

Historia del Instituto Fraunhofer

El Instituto Fraunhofer de Sistemas de Energía Solar pertenece a la Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. (Sociedad Fraunhofer para el Fomento de la Investigación Aplicada) y está situado en Friburgo de Brisgovia. Fue fundada en 1981 por Adolf Goetzberger. En 1983 se desarrolló el primer inversor ISE totalmente electrónico. En 1986 se creó aquí el primer producto en serie con un colector fluorescente para el suministro de energía, y en 1989 se inauguró el primer laboratorio de sala blanca para el desarrollo de células solares. Desde 1998, también se fabrican capas absorbentes solares selectivas para colectores solares térmicos.
En general, el instituto se dedica a la investigación aplicada y al desarrollo en ingeniería y ciencias naturales en el campo de la tecnología solar y la fotovoltaica. En Gelsenkirchen hay un centro externo que produce células solares. El instituto es el mayor instituto de investigación solar de Europa, con más de 1.100 empleados y un presupuesto de aproximadamente 83,5 millones de euros.

El Instituto Frauenhofer cuenta con 66 sedes y más de 22.000 empleados en Alemania. La instalación Rock-Star fue fundada por el Dr. Florian Clement, que es el jefe del Departamento de Tecnología de Estructuración y Producción y Metalización del Fraunhofer ISE, y ha sido su director desde su creación.

Historia de ASYS Automatisierungssysteme GmbH

ASYS Automatisierungssysteme GmbH fue fundada en 1992 como empresa de ingeniería mecánica en Dornstadt por Werner Kreibl y Klaus Mang. Entre otras cosas, produce impresoras de plantillas y pantallas, que se utilizan para recubrir placas de circuitos impresos con pasta de soldadura y células solares con pasta de metalización. La empresa también produce sistemas de manipulación para la fabricación de productos electrónicos y tecnología de automatización para las industrias de tecnología médica y farmacéutica. La facturación de ASYS Automatisierungs- GmbH es de aproximadamente 151 millones de euros al año. La empresa da empleo a unas 1.300 personas y cubre aproximadamente el 75% de la línea de producción SMT.

Contribución a la protección del clima

Con las células solares, que ahora se pueden producir mucho más rápido, se puede reducir el cambio climático al menos ligeramente. En este caso se utiliza electricidad renovable en lugar de recurrir a fuentes de energía convencionales y no renovables, como el petróleo o el gas, cuyo uso genera más dióxido de carbono en la atmósfera que la electricidad renovable. Por supuesto, la producción acelerada de células solares es sólo una pequeña contribución a la protección del clima. Pero si cada vez más gente se pasa a las células solares, el efecto aumentaría día a día. Así, con una participación suficiente, podría bastar para ralentizar o incluso detener el cambio climático provocado por el hombre.
Revolución en la producción de células solares: la planta Rock-Star
Con sus breves tiempos de producción y su elevado ritmo de producción, la planta Rock-Star es un activo en la producción de células solares y acelera así la producción de células solares en Alemania y en todo el mundo. Con sus células solares y otros productos, contribuye de forma nada desdeñable a la estabilización sostenible del clima, convirtiéndose así en un verdadero activo para el mundo.

Photo by Andres Siimon on Unsplash

¿Qué es Space Valley Ottobrunn? Áreas de investigación, empresas, visión

¿Qué es Space Valley Ottobrunn? Áreas de investigación, empresas, visión

Lo que a primera vista parece una nueva superproducción cinematográfica es, en realidad, una región de investigación aeronáutica, espacial y geodésica en la aglomeración de Múnich. El Valle del Espacio está formado por varias instituciones de investigación de la Universidad Técnica (TU) de Múnich y empresas aeroespaciales establecidas, y constituye un entorno único para la creación de redes y la cooperación.

La región metropolitana de Múnich como centro de innovación

La Facultad de Aeronáutica, Astronáutica y Geodesia (LRG) de la emprendedora TU Munich se fundó en la primavera de 2018. La geodesia describe la «ciencia de la medición y cartografía de la superficie terrestre». Los centros de investigación de la universidad se extienden desde Taufkirchen/Ottobrunn a Múnich, Oberpfaffenhofen a Garching y forman un triángulo de investigación orientado al futuro. Taufkirchen/Ottobrunn es la sede de la nueva facultad. En Garching se encuentra el campus de investigación de la TU de Múnich, en Oberpfaffenhofen el aeropuerto de investigación y en Múnich el campus principal de la TU de Múnich.

Visión del Valle del Espacio

Con la conexión en red de los centros de investigación de Space Valley se pretende agrupar los conocimientos y hacer realidad la visión de una región de alta tecnología. El Ministro-Presidente de Baviera, Markus Söder, también ha prometido su pleno apoyo al centro de innovación y ve el potencial de Space Valley para convertirse en el principal centro espacial de Europa.

El nuevo Silicon Valley de Baviera para la investigación aeroespacial

Inspirado en Silicon Valley, en California, el nombre «Space Valley» pretende indicar un lugar de innovación con un alto nivel de intercambio entre la investigación y la industria. La proximidad a las empresas aeroespaciales y a las grandes corporaciones internacionales que ya tienen su sede aquí fue un factor decisivo para que la nueva facultad de la TU decidiera instalarse aquí. En los últimos años, cada vez más empresas tecnológicas se han instalado en la Región Metropolitana de Múnich, creando un entorno único para la innovación y la investigación de vanguardia. Con Space Valley, la región se beneficia de las simbiosis dinámicas entre las instituciones de investigación y las empresas establecidas con el objetivo de desencadenar una nueva fuerza científica y económica. A través de las cooperaciones, los estudiantes pueden aplicar sus conocimientos directamente en la práctica y se crea un espacio para la creación de redes.

Un nuevo campus para la facultad en Ottobrunn

La Facultad de Aeronáutica, Astronáutica y Geodesia de la Universidad Técnica de Múnich forma parte de la recién fundada Escuela de Ingeniería y Diseño desde octubre de 2021 y está llamada a convertirse en la mayor facultad en el campo de la aeronáutica y la astronáutica de Europa. Michael Klimke ha sido nombrado director general de la nueva facultad. Se prevé que el lugar de investigación Taufkirchen/Ottobrunn, como sede del departamento, tenga un gran potencial. En el primer trimestre de 2022, la facultad se trasladará a un inmueble de 14.000 m2 recién alquilado en Ottobrunn. El Campus Ludwig Bölkow que se está construyendo allí se desarrollará en colaboración con empresas e instituciones de investigación situadas en Ottobrunn e incluirá un centro de puesta en marcha, además de laboratorios y salas de pruebas. A largo plazo, se creará allí un campus universitario para hasta 4.000 estudiantes y más de 50 profesores y cientos de empleados más. El inmueble es propiedad de la empresa conjunta Accumulata Real Estate Group y Pamera Real Estate Partners.

Sin embargo, el nuevo campus también supone un reto para las infraestructuras de Ottobrunn. El gran número de nuevos estudiantes y empleados necesitará espacio de alojamiento y aumentará el tráfico en la zona.

Sinergias estratégicas de la ciencia y la empresa en Space Valley

Además de las sinergias estratégicas con las start-ups, la Facultad de Aeronáutica, Astronáutica y Geodesia ya colabora con Airbus, la Universidad de las Fuerzas Armadas Alemanas, Munich Aerospace, el Centro Aeroespacial Alemán, Industrieanlagen-Betriebsgesellschaft mbH y MTU Aero Engines AG, entre otros.

También se están creando alianzas dentro de las universidades de Múnich entre la TU Múnich, la Escuela de Robótica e Inteligencia Artificial de Múnich (MSRM) y el Centro de Tecnología en la Sociedad de Múnich (MCTS) en el ámbito de la investigación aeroespacial.

Misión del Valle del Espacio

La misión inicial del Valle del Espacio no es investigar otros planetas, sino explorar la Tierra. En particular, la adquisición de conocimientos sobre nuestro clima es un objetivo fundamental. A largo plazo, en el Valle Espacial de Baviera se desarrollarán nuevas tecnologías que enriquecerán la vida en la Tierra.

Áreas de investigación y proyectos actuales en Space Valley

El Valle del Espacio se centra en las áreas de investigación de la observación de la Tierra, la tecnología de comunicaciones y satélites, la teledetección y la investigación sobre vehículos aéreos no tripulados.

En los últimos años, la Universidad Técnica de Múnich ha participado varias veces en el concurso «SpaceX Hyperloop Pod Competition» de Elon Musk y ha ganado cuatro veces consecutivas. El equipo de estudiantes de la Universidad Técnica de Múnich construyó un prototipo de cápsula de Hyperloop y estableció un récord de velocidad de 482 km/h en el proceso. Hyperloop describe un tren de alta velocidad que viaja por un tubo a casi la velocidad del sonido en un vacío parcial y se considera el sistema de transporte del futuro. Con una infraestructura de Hyperloop, se podría viajar de Múnich a Berlín en 40 minutos. Ahora, la Facultad de Aeronáutica, Astronáutica y Geodesia inicia su propio programa de investigación sobre el Hyperloop y tiene previsto instalar un tubo de ensayo en las instalaciones de Taufkirchen/Ottobrunn.

Además, los estudiantes del proyecto interdisciplinario MOVE-III de la Universidad Técnica de Múnich investigan los desechos espaciales y las diminutas partículas de meteoritos para comprender mejor nuestro entorno terrestre. Otro proyecto trabaja en alas aeroelásticas para aviones, con el fin de que volar sea más eficiente y, por tanto, más barato y respetuoso con el medio ambiente en el futuro. Una start-up de Space Valley trabaja actualmente en el desarrollo de un sistema de alerta temprana con nanosatélites para poder detectar antes los incendios forestales desde el espacio.

La industria espacial mundial tiene un valor total de 400.000 millones de dólares y seguirá creciendo y ganando en importancia en las próximas décadas. El Valle del Espacio en Baviera ofrece la oportunidad de estar a la vanguardia de este dinámico mercado del futuro.

Photo by NASA on Unsplash

Láser EUV y litografía EUV: definición, aplicaciones, ejemplos

Láser EUV y litografía EUV: definición, aplicaciones, ejemplos

Debido a la creciente digitalización, la tecnología y la economía dependen del progreso constante. Una de las áreas más importantes es el rendimiento de los ordenadores. Un fuerte rendimiento informático permite mejorar la conducción autónoma, los dispositivos móviles o los avances en el campo de la inteligencia artificial. El reto de la mejora es colocar cada vez más transistores en chips pequeños.

Cómo funciona la innovadora tecnología

Actualmente hay 10.000 millones de transistores en los pequeños microchips de los smartphones. Estos ya tienen un millón de veces la potencia de cálculo del ordenador que se utilizó para llegar a la luna en 1969. A principios de los años 70, los microchips del mismo tamaño contenían unos 2.000 transistores. Gordon Moore, cofundador de Intel, predijo en 1965 que el número de transistores en los chips se duplicaría cada dos años. En las décadas siguientes, resultó que tenía razón. Esta ley se conoce como «Ley de Moore». Sin embargo, los pasos que conducen a la mejora se complican cada vez más después de cierto tiempo en progresiones exponenciales.

Los microchips se fabrican desde hace 40 años con tecnología de litografía óptica. Las estructuras de los componentes electrónicos se transfieren de una máscara a una oblea de silicio. El proceso se repite unas 100 veces mientras se utilizan diferentes máscaras. El resultado es una estructura tridimensional de conductores y transistores. Una imagen nítida de las estructuras pequeñas depende de las pequeñas longitudes de onda y los grandes ángulos de apertura de la óptica.

En los últimos años, este proceso ha llegado a su límite debido a las crecientes exigencias de la tecnología y los negocios. La litografía EUV ofrece nuevas oportunidades y podría superar estos límites, lo que resulta especialmente interesante para las mayores empresas eléctricas de Alemania. En pocas palabras, un sistema de litografía EUV consta de tres componentes esenciales: Una fuente de radiación con protección de residuos y un colector, una oblea con fotorresistencia y una óptica y máscara de imagen. El nuevo proceso utiliza otras gamas de longitudes de onda y se centra en la luz ultravioleta intensa como fuente de radiación. El ultravioleta tiene una longitud de onda muy corta. Además, la orientación en sofisticados sistemas ópticos y de espejos permite la reproducción de estructuras diminutas. El colector actúa como una óptica de recogida para que la radiación pueda ser aprovechada para el proceso de exposición. A continuación, la radiación se refleja hacia el sistema de litografía. Un sistema ASLM expone más de 170 obleas por hora. La laca se estructura con precisión mediante una máscara óptica sobre obleas. Esto permite crear las estructuras más finas con siete nanómetros. La siguiente comparación es ilustrativa: el sistema convencional trabajaba con bandas de onda de luz de 193 nanómetros, mientras que la litografía EUV trabaja en el rango de 13,5 nanómetros. La litografía EUV produce microchips que contienen diez mil millones de transistores pero que sólo tienen el tamaño de una uña.

La tecnología no sólo está orientada al futuro y al ahorro de espacio, sino que también es eficiente desde el punto de vista energético. En comparación con la tecnología anterior, con una longitud de onda de 193 nanómetros, el nuevo proceso requiere un 50% menos de energía. La eficiencia en términos de utilización del espacio ha mejorado en un 40%.

Áreas de aplicación y ejemplos de litografía EUV

El desarrollo continuo en el campo del rendimiento de los ordenadores puede garantizar que se produzcan circuitos cada vez más pequeños y rápidos. Sectores como el económico se benefician de procesos de fabricación más eficientes.

En el tráfico rodado pueden producirse rápidamente situaciones imprevisibles y peligrosas. A largo plazo, la conducción autónoma ofrece una posibilidad de mejorar la seguridad. Aquí es importante que el software no sólo sea capaz de frenar y dirigir automáticamente. Los programas deben ser capaces de evaluar las situaciones de forma independiente para actuar con previsión y reconocer los posibles peligros. Este tipo de conducción autónoma aún no es habitual en el tráfico rodado actual. Sin embargo, las técnicas de EUV son una forma prometedora de realizar y mejorar permanentemente estos proyectos. Para la conducción automatizada son importantes las cámaras y los sensores que ayudan a evaluar las situaciones. El entorno se registra y se analiza en detalle. La nueva información se compara con una base de datos almacenada para calcular una respuesta adecuada. Los microchips mejorados son capaces de crear bases de datos cada vez más grandes y procesar la gran cantidad de información rápidamente. Esto mejora la velocidad de reacción y la precisión.

Los láseres EUV hacen posible los modernos smartphones y todas las funciones especiales que contienen. Los teléfonos móviles son cada vez más seguros contra el robo gracias a la introducción del reconocimiento facial. Desde la cámara frontal se transmiten al smartphone varias características especiales del rostro, como la distancia de un ojo a otro. El programa incorporado compara los datos recibidos con la información almacenada y desbloquea el teléfono móvil si se ha podido identificar al propietario. El hecho de que los chips sean cada vez más potentes en los últimos años ha contribuido a mejorar notablemente el reconocimiento facial. En los aeropuertos, por ejemplo, se utilizan programas informáticos similares.

En varios sectores de servicios se utilizan asistentes de voz y chatbots para simplificar el trabajo. Estas inteligencias artificiales se utilizan, por ejemplo, en la atención al cliente. Los programas se ofrecen en sitios web y pueden responder a las preguntas de los consumidores. Si el software no encuentra una respuesta adecuada en la base de datos, se necesitan empleados reales. La tecnología EUV permite mejorar los chatbots y las IA. Gracias a las mejoras, los programas son capaces de reconocer e interpretar correctamente posibles palabras ambiguas. Incluso las palabras mal escritas pueden ser reconocidas y emparejadas correctamente. El aumento de la potencia de cálculo permite ampliar las bases de datos a las que la IA puede recurrir para obtener mejores resultados.

Galardonado con el Premio Alemán del Futuro

El 25 de noviembre de 2020 se anunciaron en Berlín los ganadores del Deutscher Zukunftspreis 2020. En una ceremonia oficial, los ganadores del proyecto «Litografía EUV – Una nueva luz para la era digital» fueron homenajeados por el Presidente Federal Frank-Walter Steinmeier. El equipo de expertos dirigido por el Dr. Peter Kürz, el Dr. Michael Kösters y el Dr. Sergiy Yulin recibió el premio en los ámbitos de la tecnología y la innovación.

El Premio Alemán del Futuro, uno de los galardones científicos más importantes de Alemania, se concede desde 1997. Se trata de premiar los productos que están preparados para su aplicación en los campos de la tecnología, la ingeniería y las ciencias naturales. A la hora de conceder el premio, el jurado también se centra en el potencial social y económico de los proyectos innovadores. Cada año sólo se seleccionan tres equipos y sus innovaciones.

Photo by Artem Bryzgalov on Unsplash

¿QUÉ SON LAS PELÍCULAS DE E-INK? ¿Y CÓMO FUNCIONAN?

¿QUÉ SON LAS PELÍCULAS DE E-INK? ¿Y CÓMO FUNCIONAN?

Nuestro mundo actual está dominado por la ingeniería eléctrica y la digitalización. El nivel de desarrollo de los dispositivos electrónicos está aumentando considerablemente. Mientras que hace 25 años muy poca gente tenía un teléfono móvil, hoy casi todo el mundo tiene un ordenador de alta tecnología en su bolsillo. Esta tendencia al alza del desarrollo genera constantemente nuevas innovaciones y avances tecnológicos. Dado que todos los hogares alemanes están equipados con una media de cinco a diez pantallas electrónicas, no es de extrañar que también se siga investigando en la tecnología de las pantallas y que se desarrollen y comercialicen muchos conceptos interesantes. Además de las pantallas LED/LCD convencionales o de las pantallas con tecnología TN, desde hace algún tiempo también existen pantallas de tinta electrónica, es decir, pantallas con «tinta electrónica». También se conocen como película de tinta electrónica o papel electrónico. En el siguiente artículo se explica qué hay detrás de esto y cómo funciona exactamente esta tecnología.

¿Cómo funciona la película de tinta electrónica?

La tecnología de visualización E-Ink Film lleva algún tiempo en el mercado y cada vez encuentra más aplicaciones gracias a su tecnología especial. La tecnología recibió su nombre porque tiene un fuerte paralelismo visual con la tinta sobre el papel. Las pantallas más utilizadas hasta ahora, como las LED/LCD o las TN, se basan en la idea de que la superficie está formada por muchos píxeles individuales, cada uno de los cuales puede mostrar un solo color.
La película de tinta electrónica, sin embargo, se basa en un sistema avanzado con un interesante concepto químico. La pantalla de tinta electrónica consiste en una capa con innumerables y diminutas cápsulas. Cada cápsula individual está llena de partículas. En las pantallas en blanco y negro o en escala de grises, estas cápsulas se llenan sólo con partículas en blanco y negro. Para las superficies de visualización de color, las cápsulas suelen estar llenas de partículas de los colores magenta, amarillo, cian (turquesa) y blanco. Estas partículas flotan en un líquido claro. Las cápsulas están conectadas a electrodos transparentes en la parte delantera y trasera. Estas partículas individuales se ajustan para que puedan ser movidas por la carga eléctrica. En este proceso, cada color tiene una configuración diferente y las secuencias de las partículas de color pueden cambiarse mediante impulsos electrónicos.

Ejemplo:

En una pantalla de escala de grises, las partículas se ajustan de manera que las partículas negras suben cuando hay una carga negativa y las blancas suben cuando hay una carga positiva. Cada zona de la pantalla puede recibir diferentes cargas. Ahora, si la superficie debe ser completamente blanca, entonces cada cápsula recibe una carga positiva. Si un área debe mostrar un punto negro, entonces exactamente esta área recibe una carga negativa y se vuelve negra.
Con las películas de tinta electrónica con pantallas de colores, el concepto funciona igual, salvo que la disposición de las partículas de color individuales requiere varios estados de carga.

Las ventajas de la película de tinta electrónica: el consumo de energía

Este tipo de tecnología de visualización ofrece muchas ventajas sobre los métodos tradicionales. El concepto de mostrar láminas de tinta electrónica consume mucha menos energía. Esto se debe a que una pantalla de tinta electrónica sólo requiere energía cuando se inicia un cambio en la disposición del color. Las pantallas LED convencionales utilizan luz de color en todo momento. Por ello, los dispositivos móviles con película E-Ink también tienen una duración de batería desorbitada. Esta característica hace que haya murales con tecnología de tinta electrónica que no consumen nada de energía mientras no se cambie la imagen que se muestra en la pared.

Las ventajas de la película de tinta electrónica: facilidad de visión

Además, las pantallas de tinta electrónica tienen grandes ventajas sobre las tecnologías de visualización convencionales en su interacción con el ojo humano. Las pantallas de tinta electrónica son mucho más fáciles de ver. Esto se debe a que la pantalla no parpadea, lo que es habitual con otras tecnologías de visualización. Al reproducir el color sin luz, las diferentes cápsulas permiten obtener una imagen estática que tiene un efecto similar en el ojo humano al de un cuadro en la pared o una hoja de papel escrita. Por supuesto, esto es una ventaja para todos los usuarios, pero especialmente para las personas con problemas de visión, estas pantallas son una mejora significativa.

También es sabido que las pantallas con tecnología LCD deslumbran a la luz del sol. En algunos casos, trabajar a pleno sol es simplemente imposible. Cuando un dispositivo con tecnología de tinta electrónica se utiliza bajo la luz del sol, la legibilidad es infinitamente mejor.

Áreas de aplicación: Lectores de libros electrónicos, información, trabajo, automóviles.

Estas características y ventajas especiales de la tecnología de tinta electrónica han revolucionado algunos mercados y también han creado otros nuevos. En principio, las áreas de aplicación de las películas de tinta electrónica son ilimitadas, pero la tecnología está ganando terreno en algunas áreas en particular.
El mercado de los lectores de libros electrónicos, en particular, se ha visto revolucionado por la tinta electrónica. Ya existían lectores de libros electrónicos antes de la introducción de la película de tinta electrónica. Sin embargo, éstas estaban equipadas con tecnología LCD y apenas pudieron lograr avances significativos. No fue hasta mediados de la década de 2010, tras la introducción de la película de tinta electrónica, cuando aparecieron en el mercado varios nuevos lectores de libros electrónicos. La razón fue el hecho de que la nueva tecnología pudo hacer desaparecer en gran medida las desventajas de los lectores anteriores y el concepto de los lectores de libros electrónicos volvió a ser interesante para el consumidor final. Pueden ser paneles publicitarios en espacios urbanos o paneles informativos en aeropuertos. El ahorro de energía eléctrica al convertir la tecnología en película de tinta electrónica también podría revolucionar este mercado.Además, los dispositivos con tecnología de tinta electrónica también pueden utilizarse de forma excelente para trabajar además de para leer. También en este caso, la atención se centra en las ventajas de la lámina de tinta electrónica. Gracias a su pantalla, que no daña los ojos, se puede trabajar durante un largo periodo de tiempo sin cansar ni forzar la vista. El fabricante de automóviles BMW presentó un nuevo modelo del BMW iX en el CES (Consumer Electronic Show) de Las Vegas en enero de 2022. En concreto, el BMW iX Flow tiene una característica especial. Puede cambiar el color de la piel exterior. Además, se pueden crear gradientes de color y patrones. De este modo, BMW ha conseguido crear una innovación para los coches de lujo que establece nuevos estándares de diseño. Aquí también se utiliza la lámina de tinta electrónica. Todo el cuerpo está cubierto de ella. Esto permite cambiar el color del coche con sólo pulsar un botón.

Historia de la película de tinta electrónica

La tinta electrónica se ha convertido en el nombre popular de esta tecnología. Sin embargo, detrás del nombre está en realidad la empresa que desarrolló la película. La E-Ink Corporation fue fundada en 1997 por algunos investigadores después de que la tecnología fuera desarrollada por algunos científicos e investigadores del Instituto Tecnológico de Massachusetts (MIT) en 1996. Con esta tecnología patentada, la E-Ink Corporation pudo entrar en la corriente principal a través del boom de los lectores de libros electrónicos en 2006 e incluso fue incluida en el Salón de la Fama de los Inventores Nacionales de Estados Unidos en 2016. Desde entonces, E-Ink ha mejorado y revisado su tecnología muchas veces. La tinta electrónica ahora también equipa dispositivos como tabletas, ordenadores portátiles y teléfonos inteligentes.

Source:E Ink 
Photo by @felipepelaquim on Unsplash
¿Qué es un centro de datos y por qué están adquiriendo relevancia en este momento?

¿Qué es un centro de datos y por qué están adquiriendo relevancia en este momento?

Centro de datos es el nombre que recibe una instalación que proporciona acceso compartido a datos y aplicaciones a través de una compleja estructura de computación, almacenamiento y red. Para garantizar la seguridad y la alta disponibilidad de los datos, existen normas industriales que también son útiles para la planificación y el mantenimiento de los centros de datos.

¿Qué es un centro de datos?

De una forma u otra, los centros de datos, también conocidos como data centers, han existido desde la aparición de los ordenadores. En la época de los gigantes del tamaño de una habitación, un centro de datos podía consistir en un superordenador. A medida que los equipos se hacían más pequeños y baratos y aumentaba la demanda, cada vez más proveedores comenzaron a conectar en red varios servidores. Esto aumentó considerablemente la capacidad de procesamiento.

Hoy en día, estos servidores están conectados a redes de comunicación para que las personas puedan acceder a distancia a la información allí almacenada. Una sala, un edificio o varios edificios suelen albergar varios servidores agrupados con su infraestructura asociada. Los centros de datos modernos tienen cientos o miles de servidores funcionando las 24 horas del día. Por ello, los mayores inversores en centros de datos de Europa también están muy interesados en estas tecnologías.

Debido a la alta concentración de servidores apilados en filas, estos centros de datos también se llaman granjas de servidores. Los centros de datos ofrecen importantes servicios como:

+ Almacenamiento de datos
+ Copia de seguridad y recuperación
+ red de contactos
+ Gestión de datos
+ Servicios de red

Los centros de datos almacenan y entregan sitios web completos. Los servidores proporcionan servicios como el comercio electrónico, el almacenamiento en la nube, el correo electrónico, la mensajería Instand, los juegos en línea, los servicios financieros y otras aplicaciones.

Casi todas las empresas, organizaciones, agencias gubernamentales o instituciones de investigación científica necesitan su propio centro de datos o deben confiar en los servicios de un proveedor externo. Algunos utilizan su propio edificio para este fin o utilizan servicios públicos basados en la nube, como los que ofrecen Amazon, Google o Microsoft. Los centros de datos de las grandes empresas suelen estar distribuidos por todo el mundo para garantizar un acceso constante a los datos.

Por qué necesitamos centros de datos

Aunque el hardware informático es cada vez más pequeño y potente, la necesidad de potencia de cálculo y almacenamiento de datos sigue creciendo. A partir de cierto tamaño, toda empresa, organismo público, institución de investigación, red social y organización requiere una enorme potencia de cálculo. La falta de datos rápidos y fiables puede provocar la incapacidad de prestar servicios críticos y una pérdida de satisfacción de los clientes y de ingresos.

Todos estos datos tienen que ser almacenados en algún lugar. Por eso, cada vez más datos se trasladan a la nube para no tener que almacenarlos en los ordenadores del trabajo. El acceso a estos datos se realiza a través de servidores anfitriones, por lo que muchas empresas también están trasladando sus aplicaciones profesionales a la nube. Esto, a su vez, reduce el coste de funcionamiento de sus propios servidores y redes.

Tipos de centros de datos

Los centros de datos varían en tamaño. Van desde pequeñas salas de servidores hasta centros distribuidos geográficamente por todo el mundo. Los centros de datos modernos han evolucionado a partir de una infraestructura local. Hoy en día, los sistemas locales están conectados a infraestructuras en la nube donde las redes, las aplicaciones y las cargas de trabajo están virtualizadas en múltiples nubes privadas y públicas. Se distinguen los siguientes tipos de centros de datos:

+ Centros de datos de coubicación: un proveedor pone a disposición del cliente el espacio y los recursos. La administración es responsabilidad del cliente.

+ Centros de datos corporativos – Estos centros de datos son utilizados por empresas individuales para fines internos.

+ Centros de Datos de Servicios Gestionados – Aquí los servicios como el almacenamiento de datos, la computación y otros servicios se realizan directamente para el cliente.

+ Centros de datos en la nube: estos centros están distribuidos por todo el mundo y a menudo se ofrecen al cliente con la ayuda de un proveedor de servicios gestionados externo.

Escala y diseño

Cuando pensamos en un centro de datos, solemos imaginarnos enormes salas llenas de bastidores de servidores parpadeando. Kilómetros de cables conectan los servidores a routers, switches u otros equipos. Sin embargo, hay centros de datos de todos los tamaños y configuraciones. Van desde unos pocos servidores en una sala, hasta decenas de miles de servidores en enormes pabellones. Algunos son tan grandes que el personal se desplaza en bicicletas o patinetes eléctricos.

La configuración de los servidores, la topología de la red y la infraestructura de apoyo pueden variar mucho en función de la empresa, la finalidad, la ubicación, el ritmo de crecimiento y el concepto inicial de diseño del centro de datos. La disposición de un centro de datos puede afectar en gran medida a la eficiencia del flujo de datos y a las condiciones ambientales dentro del centro. Algunos sitios pueden agrupar sus servidores por función, como servidores web, servidores de bases de datos, o servidores de aplicaciones y servidores de bases de datos. Para otros, cada servidor puede realizar múltiples tareas. No hay reglas ni normas establecidas para ello.

Cómo funcionan los centros de datos

Una unidad física básica de los centros de datos son los servidores conectados para formar clusters. A menudo son del mismo tipo, por lo que pueden apilarse en armarios abiertos o cerrados. Sin embargo, a veces hay diferentes tipos, tamaños o edades de servidores. Por ejemplo, los modernos servidores planos conviven con los viejos ordenadores Unix y los enormes mainframes.

Cada servidor es un ordenador de alto rendimiento, con memoria, almacenamiento, uno o varios procesadores y capacidad de entrada/salida. Algo así como un ordenador personal, pero con un procesador más rápido y potente y mucha más memoria. Los monitores, teclados u otros periféricos se encuentran en una ubicación central o en una sala de control separada de donde se supervisan los dispositivos.

Redes, software e infraestructura

Los dispositivos de red y comunicaciones son necesarios en un centro de datos para mantener una red de gran ancho de banda para la comunicación con el mundo exterior y entre los servidores y otros dispositivos dentro del centro de datos. Esto incluye componentes como routers, switches, los controladores de interfaz de red (NIC) de los servidores y potencialmente kilómetros de cable. El cableado se presenta en varias formas: par trenzado (cobre), coaxial (también cobre) y fibra (vidrio o plástico). Los tipos de cable y sus distintos subtipos afectan a la velocidad de circulación de la información en el centro de datos.

Otros equipos importantes de los centros de datos son los dispositivos de almacenamiento (como unidades de disco duro, unidades SSD y unidades de cinta robotizadas), los sistemas de alimentación ininterrumpida (SAI), las baterías de reserva, los generadores de reserva y otros dispositivos relacionados con la energía.

Y, por supuesto, se necesita software para hacer funcionar todo este hardware, incluidos los diversos sistemas operativos y aplicaciones que se ejecutan en los servidores, software de marco de agrupación como MapReduce o Hadoop de Google para distribuir el trabajo entre cientos o más máquinas, programas de control de redes de enchufes de Internet, aplicaciones de supervisión del sistema y software de virtualización como VMware para reducir el número de servidores físicos.

Centros de datos virtuales

Un centro de datos virtual ofrece las capacidades de un centro de datos tradicional, pero utiliza recursos basados en la nube en lugar de recursos físicos. Proporciona a una organización la capacidad de aprovisionar recursos de infraestructura adicionales según sea necesario sin tener que comprar, desplegar, configurar y mantener aparatos físicos. De este modo, las empresas pueden aprovechar la flexibilidad, la escalabilidad y el ahorro de costes de la computación en nube.

Seguridad del centro de datos

Además de los sistemas de seguridad del edificio que soportan las instalaciones de un centro de datos, las redes de comunicaciones requieren un análisis exhaustivo de confianza cero. Los cortafuegos de los centros de datos, los controles de acceso a los datos, los IPS, los WAF y sus modernos sistemas equivalentes de protección de aplicaciones web y API (WAAP) deben especificarse adecuadamente para garantizar que se adaptan a las necesidades de la red del centro de datos.

Por qué los centros de datos adquieren relevancia

Los centros de datos son la columna vertebral de la informática moderna. Son la línea de vida que mantiene nuestro mundo digital en funcionamiento. Los centros de datos son mucho más seguros que el almacenamiento de datos en hardware tradicional. Los centros de datos virtuales en la nube ofrecen una mejor protección de la seguridad mediante cortafuegos eficaces y dispositivos similares, además de servicios de copia de seguridad.

Source: DataCenter 
Photo by Taylor Vick on Unsplash
¿QUÉ ES EL NUEVO MODELO DE LENGUAJE DE DEEPMIND GOPHER?

¿QUÉ ES EL NUEVO MODELO DE LENGUAJE DE DEEPMIND GOPHER?

Los modelos lingüísticos que aprenden a través de la inteligencia artificial (IA) están en boca de todos. Normalmente, el rendimiento y la calidad de estos modelos lingüísticos van de la mano de su tamaño. Cuanto mayor sea el modelo, mejor será el rendimiento. Sin embargo, los modelos más grandes son más opacos. Los expertos en ética lo ven de forma crítica, ya que los modelos se vuelven cada vez más opacos a medida que aumenta su tamaño y los sesgos son cada vez más difíciles de detectar. Ello plantea considerables problemas éticos. Gopher es un modelo de lenguaje comparativamente pequeño que puede buscar información en una base de datos y obtenerla de ahí. Gopher ha sido entrenado para ser amigable y dialogar de forma similar a un humano. Los usuarios pueden hacer preguntas concretas a Gopher y recibir respuestas concretas, que se componen de información de la base de datos. Esto permite a Gopher, a pesar de su menor tamaño, estar a la altura de los grandes modelos del mercado sin dejar de ser flexible. Los conocimientos de Gopher también pueden renovarse actualizando la base de datos sin necesidad de volver a formar a Gopher.

La empresa desarrolladora de Gopher, Deepmind, no es desconocida en este contexto. La empresa se fundó en 2010 y fue comprada por la empresa matriz de Google, Alphabet, en 2014. La empresa, con sede en Londres, tiene otros centros en Canadá, Francia y Estados Unidos. Con Gopher, Deepmind ha marcado un nuevo hito en el campo de los modelos lingüísticos.

Con 280.000 millones de parámetros, Gopher no es el mayor modelo de lenguaje, pero aporta un enorme potencial gracias a su vinculación con la base de datos. En el documento publicado por Deepmind, de más de 118 páginas, la empresa explica todo lo que vale la pena saber sobre el modelo de lenguaje y da ejemplos de conversaciones que describen las interacciones entre Gopher y el usuario. Los usuarios pueden hacer preguntas al modelo lingüístico sobre cualquier tema imaginable. No importa si los usuarios quieren saber sobre dinosaurios, la teoría de la relatividad o la capital de la República Checa. Gopher tiene una respuesta para cada pregunta.

Gopher, como todos los modelos de lenguaje más grandes, es un transformador. Esto significa que Gopher aprende por sí mismo (machine learning) y traduce una secuencia de caracteres en otra secuencia de caracteres. El modelo se entrena para ello utilizando datos de muestra y así aprende a funcionar. Gopher fue entrenado con 300.000 millones de caracteres, pero puede recurrir a cantidades mucho mayores de conocimiento gracias a la base de datos. En total, la cantidad de datos comprende 2,3 billones de caracteres y, por tanto, es muchas veces mayor que la cantidad de datos utilizada para entrenar a Gopher.

Gopher puede utilizarse para diferentes áreas y fue probado y comparado en 152 tareas por Deepmind después de su desarrollo. Las tareas iban desde la comprobación de hechos hasta la modelización del lenguaje, pasando por la respuesta a diversas preguntas de los usuarios. En aproximadamente el 80% de las tareas, Gopher pudo imponerse a los modelos lingüísticos de la competencia comparados, entre los que se encontraba el conocido modelo GPT-3.

El modelo de Deepmind salió airoso, especialmente en la conversación, donde mostró un alto grado de coherencia. La conversación natural suele ser un problema con los modelos lingüísticos que se basan en la inteligencia artificial. Aunque los modelos son capaces de formar oraciones individuales y gramaticalmente correctas, tienen dificultades para establecer un contexto en toda una sección o texto. Sin embargo, esto es importante para una conversación fluida, y es uno de los principales retos en el desarrollo de modelos de lenguaje artificial.

Una de las razones del buen rendimiento de Gopher es su conexión con la base de datos. En este caso, la base de datos de Gopher se utiliza como una especie de chuleta o libro de referencia. Esta base de datos es utilizada por Gopher para buscar pasajes con un lenguaje similar, lo que aumenta la predicción y la precisión del modelo. Deepmind llama a la tecnología del modelo «Retro» (Retrieval-Enhanced Transformer). Traducido al alemán, significa algo así como un transformador mejorado con capacidades de búsqueda. Gracias a esta tecnología, Gopher es capaz de competir con modelos lingüísticos 25 veces mayores.

Aunque Gopher convence en muchos aspectos y deja atrás a sus competidores, esta IA, al igual que otros modelos lingüísticos, tiene que luchar con los mismos problemas éticos. Sin embargo, debido al vínculo con la base de datos, Gopher debe evaluarse de forma diferente desde el punto de vista ético que los modelos lingüísticos comparables sin base de datos. Gopher hace transparente qué secciones de la base de datos se utilizaron para las predicciones. Esto puede ayudar a explicar los resultados y al mismo tiempo lleva a que Gopher no sea una caja negra pura. Además, las influencias distorsionantes (sesgo) pueden modificarse directamente en la base de datos y, por tanto, eliminarse.

El hecho de que el modelo lingüístico, a pesar de ser un modelo más bien pequeño, suele superar a sus competidores en las pruebas plantea la cuestión de lo buenos que podrían ser los modelos lingüísticos de gran tamaño con conexión a una base de datos. Sin embargo, estos no están actualmente en el mercado y tendrían que ser probados desde una perspectiva ética, además del desarrollo.

Sin embargo, por el momento, Gopher es el modelo lingüístico más eficiente, a juzgar por los datos de Deepmind, que puede aprender a través de los cambios en la base de datos sin tener que ser reentrenado completamente.

Source: Deepmind
Construcción híbrida de madera: Definición, ejemplos, ventajas

Construcción híbrida de madera: Definición, ejemplos, ventajas

La madera como material de construcción ha sido utilizada por el ser humano para la construcción de casas desde el principio de los tiempos. La madera es fácil de trabajar y convive con sus condiciones. Las casas de madera tienen un encanto incomparable y son propiedades residenciales muy solicitadas. Sin embargo, la construcción de madera pura está limitada en sus dimensiones permitidas, hasta cinco pisos están aprobados. Todo lo que sea superior resulta problemático para la construcción en madera. Las razones para ello radican en la normativa de protección contra incendios y en la estática. Sin embargo, desde 2008 existe una solución inteligente e innovadora para los nuevos edificios de seis o más plantas. El método de construcción híbrido combina la madera con diferentes materiales como el acero, el hormigón, el aluminio y los paneles de fibra de yeso. ¡Viva la «cooperación», incluso entre materiales!

Buenas razones para la mezcla de materiales

Sin embargo, la aprobación legal de un edificio no es la única razón por la que se prefiere el método de construcción híbrido. Las ventajas económicas en la construcción de la casa son las que convencen a constructores y arquitectos. La madera es un material de construcción muy popular y fácil de trabajar. En combinación con el hormigón armado, puede ser aún más resistente. El ingeniero de estructuras sigue recomendando el uso del hormigón para los techos y los cimientos, pero en el futuro podrá recurrir cada vez más a las mezclas de materiales, ya que los máximos logros técnicos en el desarrollo de elementos prefabricados de madera hacen posible nuevas construcciones. Pero no sólo la mezcla de madera y hormigón ha dado lugar a los edificios ultramodernos de los últimos años; la producción innovadora de la industria maderera también contribuye a que la madera sea estable en las alturas. El material recibe entonces nombres como madera laminada cruzada o madera estructural maciza. Se caracteriza por las propiedades especiales del material. Otra ventaja del método de construcción combinada es el factor tiempo. La fase de construcción se acorta gracias a la prefabricación. Sin embargo, hay que tener en cuenta que el grupo de planificación requiere más tiempo de antelación. En cualquier caso, la construcción híbrida con madera es respetuosa con el medio ambiente. Al fin y al cabo, el uso de este material ahorra arena como valiosa materia prima. En cuanto a los valores de aislamiento acústico requeridos y a la precisión en la fabricación de determinados componentes, el método de construcción híbrido con madera también es ventajoso. La reducción de las emisiones de gases de efecto invernadero ya se ha demostrado. Por último, hay que mencionar el clima interior y el aspecto de bienestar, criterios importantes para los ocupantes.

Ejemplos vivos

El método de construcción híbrido con madera cuenta ahora con un gran número de ejemplos vivos. Se pueden encontrar en todo el mundo. Por ejemplo, en Viena, 24 pisos de altura significan algo menos de 85 metros, en Noruega, un metro y medio más que en Viena y éste también se considera el edificio híbrido de madera más alto del mundo. Se inauguró en 2019. Ese mismo año se terminaron los edificios residenciales de Berlin-Adlershof. Tres años antes ya hubo un proyecto de éxito en Canadá, una residencia de estudiantes hecha con elementos de madera, y en 2021 Pforzheim se alza con sus orgullosos 45 metros. La construcción híbrida en madera no sólo es una alternativa innovadora a los estilos convencionales, sino que esta forma de construcción recuerda a un modo de vida natural, da a los residentes una sensación positiva con respecto al futuro, ya que se practica una gestión sostenible y la conciencia está en armonía con la experiencia. Vivir con madera responde a las ideas del ciudadano concienciado con el medio ambiente, ya que este material de construcción consume mucha menos energía para su producción que el acero. Por ello, muchos promotores de proyectos en Alemania están estudiando este nuevo concepto de vivienda.

Mezcla – ¿pero cómo?

La madera suele utilizarse para la envoltura del edificio, el hormigón da estabilidad a los techos y al hueco del ascensor. En algunos proyectos también se utilizan techos compuestos de madera-hormigón. Las partes de madera que soportan la carga están reforzadas con acero o revestidas con paneles de fibra de yeso. A veces, la fachada se sostiene con lana de roca y la escalera es de hormigón armado. También se utiliza hormigón para las líneas técnicas y todo el núcleo de suministro, lo que hace que esta zona sensible sea ignífuga. El sótano y el garaje son en su mayoría de hormigón. Como se ha elegido un revestimiento de madera para la fachada, el observador tiene la impresión de que la estructura es puramente una casa de madera. Y el aspecto de los interiores también recuerda a la construcción en madera pura. La ley de construcción no especifica qué material se utiliza en un edificio, sino que depende de la experiencia del arquitecto y de la imaginación y la billetera del constructor.

Económico, ¿pero por qué?

El dióxido de carbono se ahorra por toneladas, por un lado durante la producción, pero también porque la propia madera almacena dióxido de carbono. El ahorro de costes gracias a la precisión de la preconstrucción, la mejora de la tecnología de climatización y la rapidez de la producción hacen que este método de construcción sea prometedor para el futuro. Una fase de construcción acortada supone un alivio para todos los implicados. Una serie de edificios construidos con métodos de construcción híbridos de madera cuentan como casas energéticamente eficientes y pueden optar a subvenciones bancarias. Construir con madera y hormigón o aluminio también tiene otro efecto positivo. Como hay menos polvo y ruido durante la fase de construcción, este método de construcción es cada vez más popular. Debido al escaso peso muerto de la madera, ya no se necesita mucha maquinaria pesada y la flexibilidad de su funcionamiento permite cambiar de plano y de construcción. Los techos compuestos de madera y hormigón, por ejemplo, pueden ser deconstruidos. El ahorro que suponen las construcciones de entramado de madera conlleva una mayor superficie bruta y, en conjunto, esto suele significar un piso más. Y los pisos creados por la construcción híbrida de madera siguen siendo asequibles para todos los residentes.

Photo by Linus Mimietz on Unsplash