Cambian las reglas del juego: se desata el poder de la Inteligencia Artificial por difusión

Una startup de Palo Alto promete multiplicar por diez la velocidad de los modelos de lenguaje y reducir costos en un 90%

Los fundadores de Inception Aditya Grover (izquierda), Volodymyr Kulesho y  Stefano Ermon.

Los fundadores de Inception Aditya Grover (izquierda), Volodymyr Kulesho y Stefano Ermon. / Inception

EDUARDO MARTÍNEZ DE LA FE/T21

EDUARDO MARTÍNEZ DE LA FE/T21

Madrid

Inception ha desarrollado un modelo de lenguaje basado en difusión (DLM) que no solo promete superar las limitaciones de velocidad y costo de los sistemas actuales, sino que también abre nuevas posibilidades para la generación de texto en tiempo real y a gran escala. Las reglas del juego de la IA están cambiando a una velocidad vertiginosa.

La startup Inception, con sede en Palo Alto, ha emergido de su fase de desarrollo en secreto para presentar un innovador modelo de lenguaje basado en difusión (DLM, por sus siglas en inglés). Este nuevo enfoque promete transformar la forma en que se construyen y despliegan los modelos de lenguaje, ofreciendo mejoras sustanciales en velocidad y eficiencia en el campo de la Inteligencia Artificial (IA).

Fundada, entre otros, por el profesor de Stanford Stefano Ermon, Inception asegura haber desarrollado una tecnología que combina las fortalezas de los modelos de difusión con las capacidades de los grandes modelos de lenguaje tradicionales.

Según informa TechCrunch, el DLM de Inception ofrece un rendimiento significativamente más rápido y costos de computación reducidos en comparación con los modelos de lenguaje convencionales, lo que podría tener implicaciones de gran alcance para la industria de la IA.

Textos más flexibles y controlables

A diferencia de los modelos autorregresivos tradicionales, que generan texto de manera secuencial, los DLMs utilizan un proceso iterativo de adición y eliminación de ruido para producir texto. Este enfoque permite una generación de texto más flexible y controlable, ya que el modelo puede refinar su salida a través de múltiples pasos. La capacidad de generar múltiples segmentos de texto simultáneamente es particularmente valiosa para tareas como la generación de párrafos y la síntesis de contenido de forma extensa.

Las afirmaciones de Inception sobre el rendimiento de su modelo son impresionantes. Según la empresa, su DLM puede operar hasta 10 veces más rápido que los modelos de lenguaje tradicionales, con una reducción de costos de hasta el 90%. Estos avances se atribuyen a la capacidad del DLM para generar y refinar grandes bloques de texto en paralelo, aprovechando el poder de la tecnología de difusión.

En términos concretos, el modelo de Inception puede alcanzar velocidades de generación de texto de más de 1.000 tokens por segundo, si se confirma. Para hacernos una idea, un mecanógrafo rápido puede escribir alrededor de 80 palabras por minuto, lo que equivale a poco más de 1 palabra por segundo. 1.000 tokens por segundo significa una mejora significativa de la velocidad de generación de texto de los modelos de lenguaje tradicionales, que es más lenta. Por ejemplo, GPT-3 puede generar alrededor de 60 tokens por segundo en hardware de gama alta, según OpenAI.

Además, Inception afirma que su modelo de codificación "pequeño" rivaliza con el GPT-4 de OpenAI, mientras que su modelo "mini" supera a modelos de código abierto pequeños como el Llama 3.1 8B de Meta.

Nuevas reglas del juego

Estas ganancias de rendimiento posicionan al DLM de Inception como un potencial cambio de las reglas de juego de la IA para aplicaciones que requieren procesamiento en tiempo real y despliegues a gran escala. No es de extrañar que la tecnología haya atraído el interés de las 100 empresas Fortune que buscan superar los cuellos de botella de latencia y velocidad en la IA.

Los DLMs también ofrecen ventajas en términos de interpretabilidad y versatilidad. El proceso de generación paso a paso proporciona información sobre cómo el modelo llega a su salida final, lo que podría ser valioso para aplicaciones donde la transparencia es crucial. Además, los DLMs muestran promesa en diversas tareas de procesamiento de lenguaje natural, incluyendo generación de texto, resumen y traducción.

La irrupción de Inception en el panorama de la IA coincide con otro desarrollo revolucionario proveniente de China. El modelo Yi-34B, desarrollado por 01.AI, una startup fundada por el ex director de tecnología de Baidu, Kai-Fu Lee, ha superado a modelos mucho más grandes como GPT-3.5 y Claude 2 en varias tareas, a pesar de tener solo 34 mil millones de parámetros.

Este avance, junto con la innovación de Inception, sugiere que estamos entrando en una nueva era de eficiencia en IA, en la que modelos más pequeños y rápidos pueden competir e incluso superar a sus contrapartes más grandes. Ambos desarrollos desafían el paradigma actual de "más grande es mejor" en el campo de los modelos de lenguaje, prometiendo una IA más accesible y eficiente en recursos.

Desafíos pendientes

Sin embargo, como con cualquier tecnología emergente, quedan desafíos por superar en el caso de Inception. Uno de los principales es garantizar la coherencia y el contexto consistente en segmentos de texto generados independientemente, lo que subraya áreas para la investigación y el desarrollo continuo en arquitecturas de DLM.

A medida que la industria de la IA continúa evolucionando a un ritmo vertiginoso, innovaciones como el DLM de Inception tienen el potencial de redefinir lo que es posible en el procesamiento del lenguaje natural. Con su combinación de eficiencia mejorada, latencia reducida y capacidades de generación paralela, los modelos basados en difusión podrían muy bien representar el futuro de la IA del lenguaje. Siempre que todo esto se consolide.

Tracking Pixel Contents