Want to Become a Sponsor? Contact Us Now!🎉

LLM
Starling-7B: Um Poderoso Modelo de Linguagem de Código Aberto

Introdução ao Starling-7B: Um Poderoso Modelo de Linguagem de Código Aberto

Published on

Explore as capacidades, benchmarks e implantação local do Starling-7B, um modelo de linguagem de código aberto de última geração desenvolvido por pesquisadores da Universidade da Califórnia, Berkeley, utilizando aprendizado por reforço a partir do feedback de IA (RLAIF).

O Starling-7B é um inovador modelo de linguagem de código aberto de grande porte (LLM) desenvolvido por pesquisadores da Universidade da Califórnia, Berkeley. Este modelo tem recebido uma atenção significativa por seu desempenho impressionante em vários benchmarks e seu potencial para democratizar o acesso a modelos de linguagem avançados. Neste artigo, exploraremos o desenvolvimento, desempenho e implantação local do Starling-7B.

Quer aprender as últimas notícias sobre LLM? Confira o ranking mais recente de LLM!

Anakin AI - The Ultimate No-Code AI App Builder

Desenvolvimento e Treinamento

O Starling-7B foi desenvolvido usando uma abordagem inovadora chamada Aprendizado por Reforço a partir do Feedback de IA (RLAIF). O modelo foi treinado no conjunto de dados Nectar, que consiste em 183.000 prompts de chat, cada um com sete respostas avaliadas pelo GPT-4. Ao aproveitar o feedback do GPT-4, os pesquisadores puderam ajustar o modelo para gerar respostas de alta qualidade.

O modelo base do Starling-7B é o Openchat 3.5, que por si só é baseado no modelo Mistral-7B. Essa base permitiu que os pesquisadores construíssem seu conhecimento existente e criassem um modelo de linguagem mais capaz.

Desempenho e Benchmarks

O Starling-7B demonstrou um desempenho notável em vários benchmarks. No benchmark MT-Bench, que mede a capacidade de um modelo de executar uma ampla gama de tarefas, o Starling-7B alcançou uma pontuação de 8,09 usando a pontuação do GPT-4. Essa pontuação supera todos os outros modelos, exceto o GPT-4 e o GPT-4 Turbo, destacando as capacidades excepcionais do modelo.

Em comparação com o modelo base Openchat 3.5, o Starling-7B aumentou a pontuação do MT-Bench de 7,81 para 8,09 e a pontuação do AlpacaEval de 88,51% para 91,99%. Essas melhorias demonstram a eficácia da abordagem de treinamento RLAIF.

O Starling-7B se destaca em várias áreas, incluindo redação, humanidades, jogos de interpretação, STEM e extração de informações. No entanto, ainda há espaço para melhorias em áreas como matemática, raciocínio e programação em comparação com o GPT-4.


title: "Starling-7B: Um Poderoso Modelo de Linguagem de Código Aberto" description: "Explore as capacidades, benchmarks e implantação local do Starling-7B, um modelo de linguagem de código aberto de última geração desenvolvido por pesquisadores da Universidade da Califórnia, Berkeley, utilizando aprendizado por reforço a partir do feedback de IA (RLAIF)." date: 2024-04-30 language: pt author: jennie ogImage: https://raw.githubusercontent.com/lynn-mikami/Images/main/keyword.webp (opens in a new tab)

Introdução

O Starling-7B é um inovador modelo de linguagem de código aberto de grande porte (LLM) desenvolvido por pesquisadores da Universidade da Califórnia, Berkeley. Este modelo tem recebido uma atenção significativa por seu desempenho impressionante em vários benchmarks e seu potencial para democratizar o acesso a modelos de linguagem avançados. Neste artigo, exploraremos o desenvolvimento, desempenho e implantação local do Starling-7B.

Desenvolvimento e Treinamento

O Starling-7B foi desenvolvido usando uma abordagem inovadora chamada Aprendizado por Reforço a partir do Feedback de IA (RLAIF). O modelo foi treinado no conjunto de dados Nectar, que consiste em 183.000 prompts de chat, cada um com sete respostas avaliadas pelo GPT-4. Ao aproveitar o feedback do GPT-4, os pesquisadores puderam ajustar o modelo para gerar respostas de alta qualidade.

O modelo base do Starling-7B é o Openchat 3.5, que por si só é baseado no modelo Mistral-7B. Essa base permitiu que os pesquisadores construíssem seu conhecimento existente e criassem um modelo de linguagem mais capaz.

Desempenho e Benchmarks

O Starling-7B demonstrou um desempenho notável em vários benchmarks. No benchmark MT-Bench, que mede a capacidade de um modelo de executar uma ampla gama de tarefas, o Starling-7B alcançou uma pontuação de 8,09 usando a pontuação do GPT-4. Essa pontuação supera todos os outros modelos, exceto o GPT-4 e o GPT-4 Turbo, destacando as capacidades excepcionais do modelo.

Em comparação com o modelo base Openchat 3.5, o Starling-7B aumentou a pontuação do MT-Bench de 7,81 para 8,09 e a pontuação do AlpacaEval de 88,51% para 91,99%. Essas melhorias demonstram a eficácia da abordagem de treinamento RLAIF.

O Starling-7B se destaca em várias áreas, incluindo redação, humanidades, jogos de interpretação, STEM e extração de informações. No entanto, ainda há espaço para melhorias em áreas como matemática, raciocínio e programação em comparação com o GPT-4.

Comparação com Outros Modelos

Quando comparado a outros modelos de código aberto, o Starling-7B se destaca. Ele supera modelos como Zephyra-7B, Neural-Chat-7B e Tulu-2-DPO-70B em vários benchmarks. O desempenho do Starling-7B se aproxima do do GPT-4 e do Claude-2 em muitas áreas, tornando-o um concorrente forte no cenário de LLM de código aberto.

Comparado ao GPT-3.5 Turbo, Llama-2-70B-Chat e Zephyr-7B-beta, o Starling-7B se sai favoravelmente em muitas tarefas. No entanto, ainda fica atrás do GPT-4 em habilidades matemáticas e de raciocínio.

Executando o Starling-7B Localmente com o Ollama

Uma das principais vantagens do Starling-7B é a capacidade de executá-lo localmente usando o Ollama, uma ferramenta para implantação de LLMs de código aberto. Aqui está um guia passo a passo para começar:

  1. Instale o Ollama seguindo as instruções de instalação fornecidas na documentação do Ollama.

  2. Baixe o modelo Starling-7B usando o seguinte comando:

    ollama run starling-lm
  3. (Opcional) Crie um Modelfile personalizado para configurar os parâmetros de acordo com seus requisitos específicos. Isso permite ajustar o comportamento do modelo.

  4. Execute o modelo usando o seguinte comando:

ollama run starling-lm

Ao executar o Starling-7B localmente, é importante considerar os requisitos de memória e recursos computacionais necessários. O modelo exige uma quantidade significativa de memória, portanto, verifique se seu sistema atende às especificações mínimas.

Limitações e Desenvolvimentos Futuros

Embora o Starling-7B tenha demonstrado um desempenho impressionante, ele ainda possui algumas limitações. O modelo pode ter dificuldades com tarefas de matemática, raciocínio e codificação em comparação com modelos mais avançados como o GPT-4. Além disso, o Starling-7B tem uma tendência à verbosidade, o que pode não ser ideal em todos os casos de uso.

Pesquisadores estão trabalhando ativamente na melhoria do modelo, conjunto de dados e métodos de treinamento para abordar essas limitações. À medida que os esforços de código aberto continuam a avançar, podemos esperar avanços adicionais na tecnologia LLM, tornando modelos de linguagem poderosos mais acessíveis a um público mais amplo.

Conclusão

O Starling-7B representa um marco significativo no desenvolvimento de modelos de linguagem de código aberto. Seu desempenho impressionante em benchmarks e sua capacidade de ser executado localmente usando o Ollama tornam-no uma ferramenta valiosa para pesquisadores, desenvolvedores e entusiastas.

À medida que continuamos a explorar o potencial das LLMs de código aberto, modelos como o Starling-7B desempenharão um papel crucial na condução da inovação e na democratização do acesso a tecnologias de linguagem avançadas. Com melhorias contínuas e colaborações dentro da comunidade de código aberto, podemos esperar modelos de linguagem ainda mais poderosos e versáteis no futuro.

Anakin AI - The Ultimate No-Code AI App Builder