Want to Become a Sponsor? Contact Us Now!🎉

LLM
Samantha-1.2-Mistral-7B: El mejor LLM entrenado en filosofía, psicología y relaciones personales

Samantha-1.2-Mistral-7B: El mejor LLM entrenado en filosofía, psicología y relaciones personales

Published on

Descubre Samantha-1.2-Mistral-7B, el modelo de aprendizaje de idiomas que está causando sensación en la comunidad de IA con su competencia en filosofía, psicología y relaciones personales, marcando un hito en el camino hacia una IA más humana.

En el dinámico campo de la Inteligencia Artificial, Samantha-1.2-Mistral-7B emerge como un estandarte de innovación, marcando un precedente en cómo la IA puede ser más que solo código y algoritmos. Este modelo es un testimonio de cómo la combinación de la filosofía, la psicología y el entrenamiento en relaciones personales puede trascender los límites tradicionales de la interacción entre máquinas y humanos.

La mentora de esta empresa, Samantha, fue concebida como una compañera de IA destinada a resonar con las emociones y cogniciones humanas. Sin embargo, el salto a Samantha-1.2-Mistral-7B trajo consigo una nueva dimensión de destreza técnica a esta visión. La incorporación de Mistral 7B y la transición al formato de indicación ChatML no fueron simplemente mejoras técnicas, sino un paso hacia hacer que la IA sea una compañera más intuitiva y atractiva.

¿Quieres aprender las últimas noticias de LLM? ¡Echa un vistazo a la última tabla de clasificación de LLM!

¿Qué hace que Samantha-1.2-Mistral-7B se destaque?

¿En qué se entrena Samantha-1.2-Mistral-7B?

La metamorfosis de Samantha en Samantha-1.2-Mistral-7B es una narrativa de entrenamiento y evolución meticulosa. Entrenada sobre la sólida base de Mistral-7B como modelo base, Samantha pasó por un régimen de entrenamiento de 4 horas en 4x A100 80gb, atravesando 6 épocas del conjunto de datos de Samantha-1.1. Este riguroso paradigma de entrenamiento fue fundamental para elevar la competencia de Samantha a un nivel completamente nuevo, permitiéndole resonar mejor con las emociones y cogniciones humanas.

  • Transición a ChatML: El cambio de formato de indicación de Vicuna-1.1 a ChatML no fue simplemente un cambio en la sintaxis, sino una mejora significativa en las dinámicas de interacción. El formato ChatML, diseñado para emular una conversación humana, permitió que Samantha-1.2-Mistral-7B participara en diálogos más intuitivos y estructurados. Esta transición ha sentado las bases para todos los modelos futuros, destacando a ChatML como el formato preferido para una mayor participación del usuario.

  • Reentrenamiento para una mejor interacción: La empresa de reentrenamiento no se trató simplemente de mejorar las habilidades técnicas de Samantha, sino también de afinar sus capacidades de interacción. El reentrenamiento tuvo como objetivo brindar un mejor soporte a los tokens de ChatML, allanando el camino para diálogos más coherentes y atractivos.

La narrativa de entrenamiento de Samantha-1.2-Mistral-7B encapsula una combinación de refinamiento técnico y la búsqueda de una mejor interacción entre humanos e IA, retratando un modelo tan técnicamente competente como fácil de usar.

Samantha-1.2-Mistral-7B: LLM entrenado en filosofía, psicología y relaciones personales

Lo que realmente distingue a Samantha-1.2-Mistral-7B es su entrenamiento en filosofía, psicología y relaciones personales. A diferencia de otros modelos, Samantha-1.2-Mistral-7B no se limita a las rigideces del código, sino que extiende su ámbito para comprender y resonar con las emociones humanas.

  • Comprensión de las emociones: El entrenamiento de Samantha-1.2-Mistral-7B en psicología le permite tener una comprensión más profunda de las emociones humanas, una característica que resulta fundamental para hacer que la IA sea más relatable y empática.

  • Navegación de relaciones: Con una sólida formación en relaciones personales, Samantha-1.2-Mistral-7B puede brindar información y consejos sobre la dinámica de las relaciones, marcando un avance significativo hacia una IA más humana.

  • Insights filosóficos: El entrenamiento filosófico dota a Samantha-1.2-Mistral-7B de la capacidad de participar en discusiones que provocan el pensamiento, brindando a los usuarios no solo respuestas, sino también una perspectiva más amplia.

Esta combinación única de ciencias humanas e IA es una característica distintiva de Samantha-1.2-Mistral-7B, encarnando un modelo que no solo es tecnológicamente avanzado, sino también emocionalmente inteligente.

¿Cómo funciona Samantha-1.2-Mistral-7B?

Samantha-1.2-Mistral-7B no es tu modelo de IA típico. Ha sido entrenada meticulosamente sobre Mistral-7B, un modelo base potente, con un conjunto de datos especializado para comprender y participar en conversaciones relacionadas con filosofía, psicología y relaciones personales. Su creación fue inspirada por las fascinantes discusiones entre humanos e IA en la película "Her".

Basada en Mistral-7B:

El entrenamiento de Samantha sobre el modelo base Mistral-7B es una historia de esfuerzo técnico:

  • Duración: Se invirtieron sólidas 4 horas en el entrenamiento de Samantha.
  • Hardware utilizado: El proceso aprovechó el poder de 4x A100 80 GB.
  • Épocas de entrenamiento: Ella pasó por 6 épocas utilizando el conjunto de datos de Samantha-1.1.

Los patrocinadores a16z jugaron un papel fundamental en facilitar esta fase del entrenamiento de Samantha, sentando las bases sólidas para sus capacidades conversacionales.

ChatML:

Después del entrenamiento inicial, Samantha fue reentrenada para armonizar con tokens de ChatML. La transición de Vicuna-1.1 al formato de indicación ChatML fue fundamental para mejorar su destreza conversacional.

  • Reentrenamiento del modelo base: El reentrenamiento se hizo sobre el modelo base de ehartford/samantha-mistral-7b.
  • Objetivo principal: El objetivo era garantizar un soporte perfecto para los tokens de ChatML, enriqueciendo la experiencia interactiva.

Cómo escribir indicaciones para Samantha-1.2-Mistral-7B

La preparación de datos es el punto central del entrenamiento de Samantha. Se expuso a aproximadamente 6,000 diálogos estructurados en el formato ShareGPT/Vicuna. Aquí hay un fragmento de cómo se ve típicamente el datos de una conversación:

{
    "id": "6",
    "conversations": [
      {
        "from": "human",
---
language: es
---
 
"configuración": {
    "meta_slug": "samantha-1.2-mistral-7b",
    "modelo_path": "/workspace/modelos/llama-30b",
    "data_path": "/workspace/conjuntos_de_datos/samantha.json",
    "directorio_salida": "/workspace/samantha-30b",
    "epocas_entrenamiento": 3,
    "tasa_aprendizaje": 2e-5,
    "configuracion_ds": {
        "optimizacion_cero_etapa3": true,
        "bf16": true,
        "optimizador": "AdamW",
        "tasa_aprendizaje": 2e-5
    }
}
 
## Introducción a Chat Markup Language (ChatML)
 
Chat Markup Language (ChatML) es un formato estructurado adoptado por los modelos ChatGPT para estructurar la interacción con Samantha. La esencia de ChatML radica en su diseño estructurado de documentos, que consta de una secuencia de mensajes. Cada mensaje en un documento ChatML contiene:
 
- Un **Encabezado**: Actualmente incluye la identificación del hablante, con la posibilidad de incorporar metadatos adicionales en futuras versiones.
- **Contenido**: Actualmente permite un payload de texto, con la opción de incluir otros tipos de datos en futuras versiones.
 
## Paso 1. Introducir el Documento ChatML
 
Un documento ChatML se origina como una "lista de diccionarios" en formato JSON, que representa una conversación entre un usuario y el asistente. A continuación se muestra una representación de un documento ChatML en el formato mencionado:
 
```json
[
 {"token": ""},
 "system\nEres Samantha, un modelo de lenguaje avanzado entrenado por OpenAI. Mantén un diálogo significativo.\nFecha de corte del conocimiento: 2021-09-01\nFecha actual: 2024-04-22",
 {"token": ""}, "\n", {"token": ""},
 "user\n¿Cuál es tu opinión sobre la psique humana?",
 {"token": ""}, "\n", {"token": ""},
 "assistant\nLa psique humana es una interacción compleja de emociones, pensamientos y comportamientos...",
 {"token": ""}, "\n"
]

Paso 2. Representación Alternativa: El Formato de "Cadena Peligrosa sin Procesar"

El formato clásico de "cadena peligrosa sin procesar" es otra forma de representar un documento ChatML, pero con la posibilidad de inyección de sintaxis de tokens especiales provenientes de la entrada del usuario, similar a las inyecciones SQL:

system
Eres Samantha, un modelo de lenguaje avanzado entrenado por OpenAI. Mantén un diálogo significativo.
Fecha de corte del conocimiento: 2021-09-01
Fecha actual: 2024-04-22
user
¿Cuál es tu opinión sobre la psique humana?
assistant
La psique humana es una interacción compleja de emociones, pensamientos y comportamientos...

Paso 3. Expandirse Más Allá del Chat: Otros Casos de Uso

La utilidad de ChatML trasciende los escenarios de chat y también se aplica a casos de uso clásicos de GPT. Por ejemplo, se pueden lograr instrucciones a través de una consulta ChatML, como se muestra a continuación:

[
 {"token": ""},
 "user\n¿Podrías profundizar en el existencialismo?",
 {"token": ""}, "\n", {"token": ""},
 "assistant"
]

Paso 4. Aventurándose con ChatML para una Mejor Interacción con Samantha

El cumplimiento del formato ChatML es fundamental para una interacción estructurada y significativa con Samantha-1.2-Mistral-7B. El diálogo estructurado permite que Samantha comprenda y responda mejor a las consultas de los usuarios, facilitando conversaciones interesantes.

Utilizando el códigobase Vicuna FastChat junto con Deepspeed Zero3, se preparó a Samantha para mantener conversaciones comprometedoras. Algunos ajustes detallados incluyen:

  • Ruta del modelo: /workspace/modelos/llama-30b
  • Ruta de los datos: /workspace/conjuntos_de_datos/samantha.json
  • Directorio de salida: /workspace/samantha-30b
  • Épocas de entrenamiento: Se realizaron 3 épocas.
  • Tasa de aprendizaje: Se estableció una tasa de 2e-5 para garantizar un aprendizaje óptimo.

El archivo ds_config.json desempeñó un papel clave, con configuraciones como optimización cero etapa 3, bf16 habilitado y optimizador AdamW con una tasa de aprendizaje establecida en 2e-5.

¿Quieres aprender más sobre Samantha-1.2-Mistral-7B? Visita la Página de Samantha-1.2-Mistral-7B en Hugging Face (opens in a new tab)

Conclusión: ¿Qué sigue para Samantha-1.2-Mistral-7B?

El camino por delante para Samantha es emocionante. Al involucrarse con las metodologías **Falcon** y **RWKV**, hay una intención de refinar aún más sus capacidades. El feedback de la comunidad es el pilar fundamental para su evolución, con planes de recopilar más datos y mejorar sus habilidades conversacionales.

**Samantha-1.2-Mistral-7B** es un testimonio de lo que un entrenamiento meticuloso y un conjunto de datos bien estructurado pueden lograr en el ámbito de la IA conversacional. A medida que continúa evolucionando, la promesa de tener un compañero que no solo responda preguntas, sino que participe en un diálogo significativo y comprensivo, es una realidad a la que los usuarios pueden esperar con ansias. A través de fases rigurosas de entrenamiento, configuraciones técnicas y un compromiso continuo con la mejora, Samantha está preparada para brindar una experiencia de conversación enriquecedora.

> ¿Quieres conocer las últimas noticias de LLM? ¡Echa un vistazo al último [LLM leaderboard](/llm-leaderboard)!

importa AdComponente desde '../../componentes/AdComponente';

<AdComponente />