La Universidad de Fudan ha dado un paso sorprendente en el mundo de la tecnología con el desarrollo de una memoria Flash ultrarrápida que promete revolucionar el uso de la Inteligencia Artificial. Llamada PoX, esta nueva memoria no volátil puede escribir datos en 400 picosegundos, lo que es 300.000 millones de veces más rápido que el parpadeo humano. Este avance posiciona a PoX como un hito en el campo de la computación y un punto de inflexión respecto a las memorias tradicionales como SRAM, DRAM y NAND Flash, estas últimas las cuales, aunque retienen datos sin energía, tienen velocidades mucho más bajas.
El chip PoX, que combina no volatilidad con una velocidad de conmutación ultrarrápida, tiene el potencial de eliminar el cuello de botella en los sistemas de IA actuales. Gran parte de este progreso reside en el uso de grafeno bidimensional tipo Dirac, un material que facilita un flujo de carga sin restricciones y abandona el uso del silicio tradicional. Además, la arquitectura de la memoria se ha optimizado mediante un ajuste en la longitud gaussiana del canal, permitiendo un fenómeno conocido como superinyección 2D.
Aún no se conocen detalles sobre la comercialización de PoX, pero todo indica que su destino principal está en el campo de la IA. Gracias a su bajo consumo energético y velocidad suprema, podría integrarse en sistemas futuros, mejorando tanto el entrenamiento como la inferencia de modelos complejos de IA. Liu Chunsen, investigador en la Universidad de Fudan, subraya que este salto en velocidad supera un teórico cuello de botella tecnológico, lo que permitiría aplicaciones futuras mucho más eficientes.
Este avance coloca a China a la cabeza en el sector de tecnología de memorias, lo cual es crucial para el desarrollo de la autonomía tecnológica y los progresos en inteligencia artificial. Aunque PoX aún no está disponible comercialmente, su capacidad para mejorar sustancialmente el rendimiento de los sistemas actuales es clara. La memoria PoX puede llegar a ser el catalizador clave para redefinir los límites de la computación moderna.
Más información y referencias en Noticias Cloud.