Phi-3: Microsoftのコンパクトでパワフルな言語モデル
Published on
人工知能の急速な進化の世界で、MicrosoftはPhi-3というコンパクトでありながら非常に能力の高い言語モデルを導入することで大きな進歩を遂げました。相対的に小さいサイズであるにもかかわらず、Phi-3はさまざまなベンチマークで非凡なパフォーマンスを発揮し、規模がはるかに大きいモデルと匹敵するモデルです。この記事では、Phi-3の詳細について掘り下げ、そのパフォーマンスを他の有名な言語モデルと比較し、またPhi-3をデバイス上でローカルに実行する方法について説明します。
Phi-3とは?
Phi-3は、Microsoftが開発した言語モデルのシリーズで、最も小さいバリアントであるPhi-3-miniはたった38億のパラメータしか持ちません。これは、GPT-3.5など他のよく知られているモデルのサイズのほんの一部です。コンパクトなサイズにもかかわらず、Phi-3は、Microsoftの革新的なトレーニング技術とデータセットのキュレーションにより、さまざまなベンチマークで印象的な結果を示しています。
Phi-3シリーズは現在、次の3つのモデルで構成されています:
- Phi-3-mini:38億のパラメータ
- Phi-3-small:70億のパラメータ
- Phi-3-medium:140億のパラメータ
Microsoftは、より大きなPhi-3モデルの将来のリリースを示唆していますが、最小のバリアントでもすでにそのパフォーマンスに注目が集まっています。
ベンチマークのパフォーマンス
Phi-3のパフォーマンスを評価するために、よく使われる2つのベンチマーク、「MMLU(Multitask Metric for Longform Understanding)」と「MT-bench(Machine Translation Benchmark)」のスコアを比較してみましょう。
モデル | MMLU | MT-bench |
---|---|---|
Phi-3-mini(3.8B) | 69% | 8.38 |
Phi-3-small(7B) | 75% | 8.7 |
Phi-3-medium(14B) | 78% | 8.9 |
Llama-3(8B) | 66% | 8.6 |
Mixtral 8x7B | 68% | 8.4 |
GPT-3.5 | 71% | 8.4 |
表からわかるように、Phi-3モデルはLlama-3、Mixtral 8x7B、さらにはGPT-3.5などのより大きなモデルと比較して非常に優れたパフォーマンスを発揮しています。たった38億のパラメータしか持たないPhi-3-miniは、そのサイズの何倍ものモデルと比較可能なスコアを達成しています。この印象的なパフォーマンスは、Microsoftの高度なトレーニング技術と高品質なデータセットのキュレーションによるものです。
Phi-3のローカル実行
Phi-3の最もエキサイティングな側面の1つは、スマートフォンやノートパソコンなど、さまざまなデバイスでローカルに実行できることです。これは、モデルのコンパクトなサイズと効率的なアーキテクチャによって可能になっています。Phi-3をローカルで実行することには、レイテンシの削減、プライバシーの向上、モデルのオフライン使用など、いくつかの利点があります。
Phi-3をローカルで実行するには、オッラマフレームワークを使用することができます。オッラマは、モデルと対話するためのシンプルで使いやすいインターフェースを提供します。以下は、始めるためのステップバイステップガイドです:
-
以下のコマンドを実行してオッラマをインストールします:
pip install ollama
-
Hugging Faceのモデルリポジトリからお好みのPhi-3モデルをダウンロードします。たとえば、Phi-3-miniをダウンロードするには、次のコマンドを実行します:
ollama download phi-3-mini
-
モデルがダウンロードされたら、次のコマンドを使用してPhi-3との対話セッションを開始できます:
ollama run phi-3-mini
-
これで、プロンプトを入力し、生成された応答を受け取ることでPhi-3モデルと対話することができます。
または、ONNX Runtimeライブラリを使用してPhi-3モデルをローカルで実行することもできます。ONNX Runtimeは、さまざまなプラットフォームとプログラミング言語をサポートする効率的な推論エンジンです。Phi-3とONNX Runtimeを使用するには、次の手順に従ってください:
-
以下のコマンドを実行してONNX Runtimeをインストールします:
pip install onnxruntime
-
Hugging Faceのモデルリポジトリから使用したいPhi-3モデルのONNX版をダウンロードします。
-
ONNX Runtimeを使用してモデルをロードし、入力プロンプトに基づいて応答を生成します。
以下は始めるための簡単なPythonコードのスニペットです:
import onnxruntime as ort
session = ort.InferenceSession("path/to/phi-3-mini.onnx")
prompt = "フランスの首都は何ですか?"
input_ids = ... # プロンプトをトークン化し、入力IDに変換します
outputs = session.run(None, {"input_ids": input_ids})
generated_text = ... # 出力IDをデコードして生成されたテキストを取得します
print(generated_text)
結論
MicrosoftのPhi-3言語モデルシリーズは、コンパクトで効率的なAIモデルの開発における重要なマイルストーンを表しています。ベンチマークでの印象的なパフォーマンスとさまざまなデバイスでのローカル実行の能力により、Phi-3はモバイルコンピューティング、エッジデバイス、プライバシーに配慮したシナリオなど、AIアプリケーションの新たな可能性を開拓します。
人工知能の分野が進化し続ける中、Phi-3のようなモデルは、常に大きければ良いというわけではありません。高度なトレーニング技術、高品質なデータセット、効率的なアーキテクチャに焦点を当てることで、研究者は、より大きなモデルと同等のパフォーマンスを発揮しながら、ローカル実行の利点を提供するパワフルな言語モデルを作成することができます。
Phi-3のリリースにより、Microsoftはコンパクトな言語モデルの新たな基準を設定しました。今後のリアルワールドのシナリオでのこの技術の展開と応用が楽しみです。