La empresa europea Tilde desarrolló modelo de lenguaje de 30B parámetros para idiomas báltico-eslavos
Peter Sarlin, CEO de AMD Silo AI | Fotografía Créditos: Silo AI.

La empresa europea Tilde desarrolló modelo de lenguaje de 30B parámetros para idiomas báltico-eslavos

Tilde ha completado el entrenamiento de TildeOpen LLM, un modelo fundacional de más de 30 mil millones de parámetros especializado en lenguas báltico-eslavas. El desarrollo se realizó utilizando la supercomputadora LUMI con procesadores gráficos AMD Instinct MI250X, estableciendo un precedente para infraestructura de IA abierta y localmente relevante.

El proyecto representa un avance significativo hacia la soberanía digital europea mediante el desarrollo de capacidades de IA independientes. TildeOpen LLM está diseñado para servir a más de 155 millones de hablantes de idiomas báltico-eslavos, ofreciendo alternativas locales a modelos generalistas hospedados en nubes propietarias.

La Revolución de la IA: Modelos de Lenguaje de Gran Tamaño (LLM) explicados
Los modelos de lenguaje de gran tamaño (LLM) son la base de la gran mayoría de las herramientas más populares del momento: ChatGPT, Dall-E, etcétera.

¿Qué arquitectura técnica utiliza TildeOpen LLM para procesamiento multilingüe?

TildeOpen LLM implementa una arquitectura transformer de peso abierto con más de 30 mil millones de parámetros optimizada para tareas de razonamiento sofisticado multilingüe. El modelo está dimensionado estratégicamente para equilibrar la capacidad computacional con viabilidad de despliegue local, permitiendo implementaciones que preservan la privacidad de datos.

Toms Bergmanis, investigador de IA en Tilde, declaró a la compañía:

"Nos sorprendió positivamente lo simple que fue comenzar a entrenar en GPUs AMD Instinct. Habiendo usado previamente otro hardware, esperábamos cierto nivel de problemas de compatibilidad con esta nueva configuración de software-hardware. Resulta que nuestras preocupaciones eran innecesarias ya que la transición fue perfecta".
Fujitsu lidera el diseño de FugakuNEXT, el nuevo supercomputador japonés
Fujitsu impulsa la innovación con FugakuNEXT, integrando una CPU FUJITSU-MONAKA avanzada para liderar la transformación tecnológica e industrial.

¿Cómo facilita la soberanía de IA el despliegue local de modelos?

A diferencia de LLMs generalistas hospedados en nubes propietarias, TildeOpen LLM puede ser ajustado finamente para aplicaciones específicas y desplegado localmente. Esta capacidad habilita soberanía de IA para empresas, gobiernos e instituciones de investigación mediante control de datos, privacidad, seguridad y comportamiento del modelo.

El modelo ha completado su fase de entrenamiento fundacional y está publicado en Hugging Face. Después del ajuste fino, los modelos adaptados también serán publicados en Hugging Face bajo licencias abiertas, avanzando el acceso a LLMs poderosos para aplicaciones báltico-eslavas.

IBM y AMD desarrollan supercomputación centrada en lo cuántico
IBM y AMD se alían para combinar computación cuántica, IA y supercomputación en una nueva arquitectura híbrida.

Peter Sarlin, CEO de AMD Silo AI, comentó:

"TildeOpen LLM, junto con las familias de modelos AMD Silo AI Poro y Viking, son ejemplos de componentes críticos de infraestructura de IA, entrenados en hardware AMD. Estos modelos contribuyen y habilitan un ecosistema abierto de software de IA".

AMD Silo AI había demostrado previamente el entrenamiento de LLMs multilingües en hardware AMD con sus familias de modelos Poro y Viking adaptadas para idiomas nórdicos.

TildeOpen LLM está construido para servir necesidades del mundo real en idiomas báltico-eslavos, contribuyendo a la soberanía de IA regional. El modelo permite aplicaciones que van desde traducción en tiempo real hasta resumen de documentos privados y agentes de IA especializados.