Want to Become a Sponsor? Contact Us Now!🎉

LLM
Starling-7B: Un potente modelo de lenguaje de código abierto

Introducción a Starling-7B: Un potente modelo de lenguaje de código abierto

Published on

Explora las capacidades, referencias y despliegue local de Starling-7B, un modelo de lenguaje de código abierto de última generación desarrollado por investigadores de UC Berkeley utilizando aprendizaje por refuerzo de la retroalimentación IA (RLAIF).

Starling-7B es un innovador modelo de lenguaje grande (LLM) de código abierto desarrollado por investigadores de la Universidad de California, Berkeley. Este modelo ha llamado la atención por su impresionante rendimiento en diversas referencias y su potencial para democratizar el acceso a modelos de lenguaje avanzados. En este artículo, profundizaremos en el desarrollo, rendimiento y despliegue local de Starling-7B.

¿Quieres conocer las últimas noticias sobre LLM? ¡Echa un vistazo a la última tabla de clasificación de LLM!

Anakin AI - The Ultimate No-Code AI App Builder

Desarrollo y entrenamiento

Starling-7B fue desarrollado utilizando un enfoque novedoso llamado Aprendizaje por Refuerzo de la Retroalimentación IA (RLAIF). El modelo fue entrenado con el conjunto de datos Nectar, que consta de 183,000 ejemplos de chats, cada uno con siete respuestas calificadas por GPT-4. Gracias a la retroalimentación de GPT-4, los investigadores pudieron ajustar el modelo para generar respuestas de alta calidad.

El modelo base de Starling-7B es Openchat 3.5, que a su vez se basa en el modelo Mistral-7B. Esta base permitió a los investigadores aprovechar los conocimientos existentes y crear un modelo de lenguaje más capaz.

Rendimiento y referencias

Starling-7B ha demostrado un rendimiento notable en diversas referencias. En la referencia MT-Bench, que mide la capacidad de un modelo para realizar una amplia gama de tareas, Starling-7B obtuvo una puntuación de 8.09 utilizando la puntuación de GPT-4. Esta puntuación supera a todos los demás modelos excepto GPT-4 y GPT-4 Turbo, destacando las capacidades excepcionales del modelo.

En comparación con el modelo base Openchat 3.5, Starling-7B aumentó la puntuación de MT-Bench de 7.81 a 8.09 y la puntuación de AlpacaEval de 88.51% a 91.99%. Estas mejoras demuestran la efectividad del enfoque de entrenamiento RLAIF.

Starling-7B destaca en diversos campos, incluyendo escritura, humanidades, juegos de rol, STEM y extracción de información. Sin embargo, aún hay margen de mejora en áreas como matemáticas, razonamiento y programación en comparación con GPT-4.


title: "Starling-7B: Un potente modelo de lenguaje de código abierto" description: "Explora las capacidades, referencias y despliegue local de Starling-7B, un modelo de lenguaje de código abierto de última generación desarrollado por investigadores de UC Berkeley utilizando aprendizaje por refuerzo de la retroalimentación IA (RLAIF)." date: 2024-04-30 language: es author: jennie ogImage: https://raw.githubusercontent.com/lynn-mikami/Images/main/keyword.webp (opens in a new tab)

Introducción

Starling-7B es un innovador modelo de lenguaje grande (LLM) de código abierto desarrollado por investigadores de la Universidad de California, Berkeley. Este modelo ha llamado la atención por su impresionante rendimiento en diversas referencias y su potencial para democratizar el acceso a modelos de lenguaje avanzados. En este artículo, profundizaremos en el desarrollo, rendimiento y despliegue local de Starling-7B.

Desarrollo y entrenamiento

Starling-7B fue desarrollado utilizando un enfoque novedoso llamado Aprendizaje por Refuerzo de la Retroalimentación IA (RLAIF). El modelo fue entrenado con el conjunto de datos Nectar, que consta de 183,000 ejemplos de chats, cada uno con siete respuestas calificadas por GPT-4. Gracias a la retroalimentación de GPT-4, los investigadores pudieron ajustar el modelo para generar respuestas de alta calidad.

El modelo base de Starling-7B es Openchat 3.5, que a su vez se basa en el modelo Mistral-7B. Esta base permitió a los investigadores aprovechar los conocimientos existentes y crear un modelo de lenguaje más capaz.

Rendimiento y referencias

Starling-7B ha demostrado un rendimiento notable en diversas referencias. En la referencia MT-Bench, que mide la capacidad de un modelo para realizar una amplia gama de tareas, Starling-7B obtuvo una puntuación de 8.09 utilizando la puntuación de GPT-4. Esta puntuación supera a todos los demás modelos excepto GPT-4 y GPT-4 Turbo, destacando las capacidades excepcionales del modelo.

En comparación con el modelo base Openchat 3.5, Starling-7B aumentó la puntuación de MT-Bench de 7.81 a 8.09 y la puntuación de AlpacaEval de 88.51% a 91.99%. Estas mejoras demuestran la efectividad del enfoque de entrenamiento RLAIF.

Starling-7B destaca en diversos campos, incluyendo escritura, humanidades, juegos de rol, STEM y extracción de información. Sin embargo, aún hay margen de mejora en áreas como matemáticas, razonamiento y programación en comparación con GPT-4.

Comparaciones con otros modelos

En comparación con otros modelos de código abierto, Starling-7B se destaca. Supera a modelos como Zephyra-7B, Neural-Chat-7B y Tulu-2-DPO-70B en diversas referencias. El rendimiento de Starling-7B se acerca al de GPT-4 y Claude-2 en muchas áreas, lo que lo convierte en un fuerte competidor en el panorama de LLM de código abierto.

En comparación con GPT-3.5 Turbo, Llama-2-70B-Chat y Zephyr-7B-beta, Starling-7B se compara favorablemente en muchas tareas. Sin embargo, aún está rezagado en capacidades matemáticas y de razonamiento en comparación con GPT-4.

Ejecución de Starling-7B localmente con Ollama

Una de las principales ventajas de Starling-7B es la capacidad de ejecutarlo localmente utilizando Ollama, una herramienta para implementar LLM de código abierto. Aquí tienes una guía paso a paso para comenzar:

  1. Instala Ollama siguiendo las instrucciones de instalación proporcionadas en la documentación de Ollama.

  2. Descarga el modelo Starling-7B utilizando el siguiente comando:

    ollama run starling-lm
  3. (Opcional) Crea un Modelfile personalizado para configurar parámetros según tus requisitos específicos. Esto te permite ajustar el comportamiento del modelo. Por favor, proporcione la traducción al español para este archivo markdown. Si hay un frontmatter, asegúrese de traducir el parámetro de idioma a es correspondiente. Para el código, no traduzca el código, solo traduzca los comentarios. No traduzca el contenido del ejemplo de la invitación. Aquí está el archivo: 4. Ejecuta el modelo usando el siguiente comando:

    ollama run starling-lm

Al ejecutar Starling-7B localmente, es importante considerar los requisitos de memoria y los recursos computacionales necesarios. El modelo requiere una cantidad significativa de memoria, así que asegúrese de que su sistema cumpla con las especificaciones mínimas.

Limitaciones y futuros desarrollos

Si bien Starling-7B ha demostrado un rendimiento impresionante, aún tiene algunas limitaciones. El modelo puede tener dificultades con tareas de matemáticas, razonamiento y codificación en comparación con modelos más avanzados como GPT-4. Además, Starling-7B tiende a ser verboso, lo cual puede no ser ideal en todos los casos de uso.

Los investigadores están trabajando activamente en mejorar el modelo, el conjunto de datos y los métodos de entrenamiento para abordar estas limitaciones. A medida que los esfuerzos de código abierto continúan avanzando, podemos esperar más avances en la tecnología del LLM, lo que permitirá que los modelos de lenguaje poderosos sean más accesibles para un público más amplio.

Conclusión

Starling-7B representa un hito significativo en el desarrollo de modelos de lenguaje de código abierto. Su impresionante rendimiento en las pruebas de referencia y su capacidad para ejecutarse localmente utilizando Ollama lo convierten en una herramienta valiosa para investigadores, desarrolladores y entusiastas por igual.

A medida que continuamos explorando el potencial de los LLM de código abierto, modelos como Starling-7B desempeñarán un papel crucial en impulsar la innovación y democratizar el acceso a tecnologías de lenguaje avanzadas. Con mejoras y colaboraciones en curso dentro de la comunidad de código abierto, podemos esperar modelos de lenguaje aún más poderosos y versátiles en el futuro.

Anakin AI - The Ultimate No-Code AI App Builder