Phi-3 : un modèle de langage compact et puissant de Microsoft
Published on
Dans le monde en constante évolution de l'intelligence artificielle, Microsoft a réalisé une avancée significative avec l'introduction de Phi-3, un modèle de langage compact mais très performant. Malgré sa taille relativement réduite, Phi-3 a démontré des performances remarquables sur diverses références, rivalisant avec des modèles bien plus volumineux. Cet article examinera en détail Phi-3, comparera ses performances à d'autres modèles de langage importants et fournira un guide sur la manière d'exécuter Phi-3 localement sur votre appareil.
Qu'est-ce que Phi-3 ?
Phi-3 est une série de modèles de langage développés par Microsoft, la plus petite variation, Phi-3-mini, ne comptant que 3,8 milliards de paramètres. Cela représente une fraction de la taille d'autres modèles bien connus, tels que GPT-3.5, qui compte environ 175 milliards de paramètres. Malgré sa taille compacte, Phi-3 a donné des résultats impressionnants sur différentes références grâce aux techniques de formation innovantes et à la sélection minutieuse des ensembles de données de Microsoft.
La série Phi-3 comprend actuellement trois modèles :
- Phi-3-mini : 3,8 milliards de paramètres
- Phi-3-small : 7 milliards de paramètres
- Phi-3-medium : 14 milliards de paramètres
Microsoft a laissé entendre la sortie future de modèles Phi-3 plus volumineux, mais même la plus petite variation a déjà suscité beaucoup d'attention pour ses performances.
Performances de référence
Pour évaluer les performances de Phi-3, comparons ses scores sur deux références largement utilisées : MMLU (Métrique multitâche pour la compréhension de longs textes) et MT-bench (Référence de traduction automatique).
Modèle | MMLU | MT-bench |
---|---|---|
Phi-3-mini (3,8B) | 69% | 8,38 |
Phi-3-small (7B) | 75% | 8,7 |
Phi-3-medium (14B) | 78% | 8,9 |
Llama-3 (8B) | 66% | 8,6 |
Mixtral 8x7B | 68% | 8,4 |
GPT-3.5 | 71% | 8,4 |
Comme le tableau l'illustre, les modèles Phi-3 se comportent remarquablement bien par rapport à des modèles plus volumineux tels que Llama-3, Mixtral 8x7B et même GPT-3.5. Le Phi-3-mini, avec seulement 3,8 milliards de paramètres, atteint des scores comparables à des modèles plusieurs fois plus grands. Cette performance impressionnante peut être attribuée aux techniques de formation avancées de Microsoft et à la sélection de jeux de données de haute qualité.
Exécution de Phi-3 localement
L'un des aspects les plus passionnants de Phi-3 est sa capacité à s'exécuter localement sur une large gamme d'appareils, y compris les smartphones et les ordinateurs portables. Cela est rendu possible par la taille compacte du modèle et son architecture efficace. L'exécution locale de Phi-3 offre plusieurs avantages, tels qu'une latence réduite, une amélioration de la confidentialité et la possibilité d'utiliser le modèle hors ligne.
Pour exécuter Phi-3 localement, vous pouvez utiliser le framework Ollama, qui offre une interface simple et conviviale pour interagir avec le modèle. Voici un guide étape par étape pour commencer :
-
Installez Ollama en exécutant la commande suivante :
pip install ollama
-
Téléchargez le modèle Phi-3 de votre choix depuis le référentiel de modèles Hugging Face. Par exemple, pour télécharger Phi-3-mini, exécutez :
ollama download phi-3-mini
-
Une fois le modèle téléchargé, vous pouvez démarrer une session interactive avec Phi-3 en utilisant la commande suivante :
ollama run phi-3-mini
-
Vous pouvez maintenant interagir avec le modèle Phi-3 en entrant des questions et en recevant des réponses générées.
Alternativement, vous pouvez utiliser la bibliothèque ONNX Runtime pour exécuter les modèles Phi-3 localement. ONNX Runtime est un moteur d'inférence efficace qui prend en charge différentes plates-formes et langages de programmation. Pour utiliser ONNX Runtime avec Phi-3, suivez ces étapes :
-
Installez ONNX Runtime en exécutant la commande suivante :
pip install onnxruntime
-
Téléchargez la version ONNX du modèle Phi-3 que vous souhaitez utiliser depuis le référentiel de modèles Hugging Face.
-
Chargez le modèle à l'aide de ONNX Runtime et commencez à générer des réponses en fonction de vos questions d'entrée.
Voici un simple extrait de code Python pour vous aider à démarrer :
import onnxruntime as ort
session = ort.InferenceSession("chemin/vers/phi-3-mini.onnx")
question = "Quelle est la capitale de la France ?"
ids_entree = ... # Tokenisez la question et convertissez-la en IDs d'entrée
sorties = session.run(None, {"input_ids": ids_entree})
texte_genere = ... # Décodage des IDs de sortie pour obtenir le texte généré
print(texte_genere)
Conclusion
La série de modèles de langage Phi-3 de Microsoft représente une étape importante dans le développement de modèles d'intelligence artificielle compacts et efficaces. Avec ses performances impressionnantes sur les références et sa capacité à s'exécuter localement sur différents appareils, Phi-3 ouvre de nouvelles possibilités pour les applications d'intelligence artificielle dans des domaines tels que l'informatique mobile, les appareils périphériques et les scénarios sensibles à la confidentialité.
À mesure que le domaine de l'intelligence artificielle continue d'évoluer, des modèles tels que Phi-3 démontrent que plus grand n'est pas toujours meilleur. En se concentrant sur des techniques de formation avancées, des ensembles de données de haute qualité et des architectures efficaces, les chercheurs peuvent créer des modèles de langage puissants qui rivalisent avec les performances de leurs homologues plus volumineux tout en offrant les avantages d'une exécution locale.
Avec la sortie de Phi-3, Microsoft a établi une nouvelle norme pour les modèles de langage compacts, et il sera passionnant de voir comment cette technologie se développe et est appliquée dans des scénarios réels dans un avenir proche.