En el ámbito de la computación paralela, CUDA (Compute Unified Device Architecture) de NVidia ha sido una plataforma revolucionaria. Su principal innovación radica en la utilización de la potencia de las GPU NVidia para tareas de cómputo general, extendiéndose mucho más allá del renderizado gráfico tradicional.
Desarrollo de CUDA
Las GPU, diseñadas inicialmente para operaciones gráficas, han encontrado en CUDA una nueva vida. Gracias a su arquitectura paralela, ahora es posible realizar cálculos científicos, simulaciones físicas y operaciones de machine learning, que requieren un procesamiento intensivo. Este enfoque ofrece a los desarrolladores un entorno de programación versátil, permitiendo el uso de varios lenguajes y aprovechando las instrucciones específicas de la GPU.
El punto de vista de Intel
Recientemente, el CEO de Intel, Pat Gelsinger, durante la presentación de los nuevos chips Core Ultra y la quinta generación de CPU Xeon, cuestionó el liderazgo de CUDA en el entrenamiento de modelos de inteligencia artificial. Gelsinger sostiene que, una vez entrenado el modelo, la dependencia de CUDA desaparece. Según él, el mercado busca alejarse de CUDA en favor de tecnologías más abiertas y accesibles.
El enfoque en la inferencia
Gelsinger destacó la importancia de la inferencia, un proceso donde el modelo entrenado realiza predicciones analizando datos de entrada. Intel, con su enfoque en Xeon y PCs edge, apunta a destacar en este ámbito con su procesador Gaudi 3.
Intel y la competitividad en IA
Gelsinger reafirmó la competitividad de Intel en el sector de soluciones de inteligencia artificial para data centers. Se centró en OpenVINO (Open Visual Inference and Neural network Optimization), un toolkit que optimiza redes neuronales para hardware Intel. OpenVINO soporta varios modelos y su flexibilidad y rendimiento lo hacen esencial para el desarrollo de aplicaciones de IA y visión artificial.
Futuras tendencias
Gelsinger anticipa un futuro donde la computación será mixta e híbrida, con operaciones en la nube y en PCs de usuarios. Además, señala la creciente "pythonización" en el entrenamiento de modelos de IA, indicando un movimiento hacia una mayor apertura e interoperabilidad, y un distanciamiento progresivo de CUDA.
La evolución de la computación paralela y la inteligencia artificial está marcada por una búsqueda constante de mayor eficiencia, accesibilidad y versatilidad. Mientras CUDA ha sido un pionero en este campo, tecnologías emergentes como las propuestas por Intel señalan un cambio hacia enfoques más abiertos y flexibles, configurando un panorama competitivo y en constante evolución en el mundo de la IA.