日韩无码不卡视频,国产午夜无码AV,无码视频免费看精品,国产对白受不了了

share
hey-genius.com | 09. 08. 2024 | Editor:Teresa Zheng [A A A]

La Universidad Tsinghua logra un gran avance en computación fotónica que abre la vía a un entrenamiento de modelos de IA más eficiente desde el punto de vista energético

Palabras clave: Tsinghua, IA, computación
hey-genius.com | 09. 08. 2024

Científicos de la Universidad de Tsinghua han dado a conocer un método pionero de computación fotónica que podría mejorar significativamente los procesos de entrenamiento de las redes neuronales ópticas. Este avance, unido al lanzamiento del chip basado en luz Taichi-II, está llamado a ofrecer una alternativa más rápida y eficiente desde el punto de vista energético para el entrenamiento de grandes modelos lingüísticos.

Los investigadores chinos Lu Fang y Dai Qionghai, junto con su equipo, publicaron sus hallazgos en un artículo titulado "Fully Forward Mode (FFM) Training for Optical Neural Networks" en la revista Nature. El artículo, publicado el miércoles, pone de relieve su potencial para avanzar en campos aplicados y teóricos como las redes neuronales profundas, la percepción ultrasensible y la fotónica topológica.

El método actual para entrenar modelos de inteligencia artificial se basa en gran medida en la emulación de ordenadores digitales, que se ve limitada por su elevado consumo energético y su dependencia del hardware de las GPU. El método de aprendizaje FFM desarrollado por Tsinghua permite llevar a cabo estos procesos de entrenamiento intensivos por ordenador directamente en el sistema físico, lo que reduce significativamente las restricciones del modelado numérico, según el equipo de investigación.

Aunque la computación fotónica ha ofrecido una gran potencia de cálculo con un menor consumo de energía en comparación con los métodos convencionales, se ha limitado a los cálculos preliminares. Los cálculos precisos y complejos necesarios para el entrenamiento avanzado de la IA han seguido dependiendo en gran medida de las GPU, según explicó el jueves Liu Gang, economista jefe del Instituto Chino de Estrategias de Desarrollo de la IA de Nueva Generación, al Global Times.

La nueva tecnología desarrollada por el equipo de Tsinghua promete superar estas limitaciones, eliminando potencialmente la necesidad de un uso extensivo de GPU y conduciendo a un entrenamiento más eficiente y preciso de los modelos de IA, a?adió Liu.

El chip Taichi de primera generación, también desarrollado por la Universidad de Tsinghua y presentado en abril, apareció en la revista Nature. Este chip utiliza circuitos integrados fotónicos, que procesan los datos utilizando luz en lugar de se?ales eléctricas, lo que permite una transmisión de datos ultrarrápida y reduce significativamente el consumo de energía.

En comparación con su predecesor, el chip Taichi-II se ha dise?ado específicamente para realizar el entrenamiento in situ de redes neuronales a gran escala utilizando luz, llenando así un vacío crítico en la computación fotónica. Se espera que esta innovación acelere el entrenamiento de modelos de IA y destaque en áreas como la obtención inteligente de imágenes de alto rendimiento y el análisis eficiente de sistemas fotónicos topológicos.

El consumo de energía en la industria de la IA sigue siendo un reto importante. Según Rystad Energy, una institución de investigación con sede en Noruega, se prevé que la expansión combinada de los centros de datos tradicionales y de IA, junto con las fundiciones de chips en EE. UU., aumente la demanda de energía en 177 teravatios-hora (TWh) de 2023 a 2030, alcanzando un total de 307 TWh. En comparación, la Administración de Información Energética de EE. UU. informó de que en 2023 se generaron 4.178 TWh de electricidad en instalaciones a escala comercial en todo el país.

    <sup id="2wwww"></sup>
  • <nav id="2wwww"></nav>
    • 
      <tfoot id="2wwww"><dd id="2wwww"></dd></tfoot>
      <nav id="2wwww"><code id="2wwww"></code></nav>
      <nav id="2wwww"><code id="2wwww"></code></nav>
      <tfoot id="2wwww"><dd id="2wwww"></dd></tfoot>
      <noscript id="2wwww"><optgroup id="2wwww"></optgroup></noscript>
    • <noscript id="2wwww"><dd id="2wwww"></dd></noscript>