-Advertisement-
El sector de los grandes modelos lingüísticos sigue creciendo. StabilityAI, fabricante de la popular herramienta de generación de imágenes Stable Diffusion, ha lanzado un conjunto de herramientas de modelos lingüísticos de código abierto.
Bautizadas como StableLM, las versiones alfa disponibles públicamente de los suite contiene actualmente modelos con tres y siete mil millones de parámetros, con modelos de 15, 30 y 65 mil millones de parámetros señalados como “en progreso” y un modelo de 175 mil millones previsto para desarrollo futuro.
Anuncio de StableLM❗
Estamos liberando el primero de nuestros grandes modelos lingüísticos, comenzando con modelos param 3B y 7B, con 15-65B a seguir. Nuestros LLM se publican bajo licencia CC BY-SA.
También estamos publicando modelos ajustados a RLHF para uso en investigación. Leer más→ https://t.co/R66Wa4gbnW pic.twitter.com/gvDDJMFBYJ
– Estabilidad AI (@StabilityAI) 19 de abril de 2023
En comparación, GPT-4 tiene un recuento de parámetros estimado en un billón, seis veces superior al de su predecesor GPT-3.
Sin embargo, el recuento de parámetros puede no ser una medida uniforme de la eficacia del LLM, como señaló Stability AI en su blog post anunciando el lanzamiento de StableLM:
“StableLM se entrena en un nuevo conjunto de datos experimental basado en The Pile, pero tres veces mayor, con 1,5 billones de tokens de contenido. […] La riqueza de este conjunto de datos proporciona a StableLM un rendimiento sorprendentemente alto en tareas conversacionales y de codificación, a pesar de su pequeño tamaño de entre 3.000 y 7.000 millones de parámetros.”
Por el momento no está claro cómo de robustos son los modelos de StableLM. El equipo de StabilityAI señaló en la página de Github de la organización que pronto se ofrecería más información sobre las capacidades de los LM, incluidas las especificaciones del modelo y los ajustes de entrenamiento.
Relacionado: Microsoft está desarrollando su propio chip de IA para impulsar ChatGPT
Siempre que los modelos funcionen lo suficientemente bien en las pruebas, la llegada de una potente alternativa de código abierto a ChatGPT de OpenAI podría resultar interesante para el mundo del comercio de criptomonedas.
Como informó Cointelegraph, la gente está construyendo bots de trading avanzados sobre la API GPT y nuevas variantes que incorporan acceso a herramientas de terceros, como BabyAGI y AutoGPT.
La adición de modelos de código abierto a la mezcla podría ser una bendición para los traders expertos en tecnología que no quieren pagar el acceso de OpenAI primas.
Los interesados pueden probar una interfaz en vivo para el modelo StableLM de 7B parámetros alojado en en HuggingFace. Sin embargo, en el momento de publicar este artículo, nuestros intentos de hacerlo encontraron el sitio web desbordado o al límite de su capacidad.
Source: COIN TELEGRAPH