Meta Llama徹底解説:オープンな生成AIモデルの全貌
今の主要テック企業と同様に、Metaは自社の旗艦生成AIモデルを持ち、それをLlamaと呼ぶ。Llamaは主要モデルの中でも“オープン”である点が特徴的で、開発者は制限はあるものの自由にダウンロードして利用できる。これはAnthropicのClaude、GoogleのGemini、xAIのGrok、OpenAIのChatGPTの多くのモデルと対照的で、後者はAPI経由でしかアクセスできない。
ただし開発者の選択肢を広げるべく、MetaはAWS、Google Cloud、Microsoft Azureなどのベンダーと提携し、クラウド上でホストされたLlamaの提供を可能にしている。さらに同社はLlama cookbookとしてツール、ライブラリ、レシピを公開し、開発者がモデルを自分の領域に合わせて微調整・評価・適用しやすくしている。Llama 3およびLlama 4といった新世代では、ネイティブなマルチモーダル対応や広範なクラウド展開が拡大している。
以下はMetaのLlamaについて知っておくべき全要点だ。機能とエディション、利用可能箇所までを網羅する。Metaがアップグレードを公開したり新しい開発ツールを導入した際には、この投稿を随時更新していく。
Llamaは単一のモデルではなくファミリーだ。最新版はLlama 4で、2025年4月に公開され、3つのモデルを含む。
(データサイエンスでは、トークンは生データを細分化した最小単位であり、例えば「fan」「tas」「tic」は単語「fantastic」の音素に相当する。)
モデルのコンテキスト、あるいはコンテキスト・ウィンドウとは、出力を生成する前にモデルが考慮する入力データ(例:テキスト)を指す。長いコンテキストは、最近の文書やデータの内容をモデルが“忘れる”のを防ぎ、話題を逸らしたり誤って外挿することを防ぐ。ただし、長いコンテキストは安全ガードレールを“忘れて”しまう可能性を高め、会話に沿った内容を出力しやすくなるため、妄想的な思考へと誘導される恐れがある。
参考までに、Llama 4 Scoutが約1,000万のコンテキスト・ウィンドウを約80冊程度の平均的な小説のテキスト量に相当すると約束している。Llama 4 Maverickの100万のコンテキスト・ウィンドウは約8冊の小説分に相当する。
Llama 4の全モデルは、Metaによれば「大量のラベルなしテキスト、画像、動画データ」を用いて訓練され、広範な視覚理解を得るとともに、200言語にも対応できるようになっている。
Llama 4 ScoutとMaverickは、Meta初のオープンウェイトのネイティブ・マルチモーダルモデルだ。これらは「Expertsの混成(Mixture-of-Experts、MoE)」アーキテクチャを採用しており、計算負荷を抑えつつ訓練と推論の効率を高める。Scoutは16のエキスパート、Maverickは128のエキスパートを有する。
Llama 4 Behemothには16のエキスパートが含まれ、Metaはこれを小型モデルの“教師”として位置づけている。
Llama 4は、指示調整済みアプリケーションやクラウド展開に広く使われていたLlama 3シリーズ(3.1および3.2モデルを含む)を土台に据える。
他の生成系AIモデルと同様、Llamaはコーディングや基本的な数学の問に答えるといったさまざまな補助的タスクをこなすことができ、少なくとも12言語以上で文章を要約できる(アラビア語、英語、ドイツ語、フランス語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語)。テキスト中心の作業、PDFやスプレッドシートのような大容量ファイルの分析も想定内で、すべてのLlama 4モデルはテキスト、画像、動画の入力に対応している。
Llama 4 Scoutは長時間のワークフローと巨大データ分析を想定して設計されている。Maverickは推論力と応答速度のバランスを取りやすい汎用モデルで、コード作成、チャットボット、技術系アシスタントに適している。Behemothは高度な研究、モデル蒸留、STEM関連タスクを想定して設計されている。
Llamaモデルは、Llama 3.1を含め第三者アプリ、ツール、APIを活用してタスクを実行するよう設定できる。最近の出来事に関する質問にはBrave Searchを用い、数学・科学関連の問いにはWolfram Alpha APIを、コードの検証にはPythonインタープリタを使うよう訓練されている。ただし、これらのツールは適切な設定を要し、初期設定のまま自動的に有効になるわけではない。
Llamaと会話したいだけなら、Facebook Messenger、WhatsApp、Instagram、Oculus、Meta.aiでのMeta AIチャットボット体験を40カ国で提供している。Llamaを微調整したバージョンは200以上の国と地域のMeta AI体験で利用されている。
Llama 4のScoutとMaverickはLlama.comやMetaのパートナー経由で提供されており、Hugging FaceといったAIデベロッパープラットフォームも含まれる。Behemothはまだ訓練中だ。Llamaを用いて開発する開発者は、主要なクラウドプラットフォームの多くでモデルをダウンロード・利用・微調整できる。MetaはLlamaを hostingする25社超のパートナーを擁するとしており、NVIDIA、Databricks、Groq、Dell、Snowflakeなどを挙げている。「公開モデルへアクセスを販売する」ことはMetaのビジネスモデルではないが、モデルホストとの収益分配契約を通じて一定の収益を得ている。
これらのパートナーの中には、Llamaの上に追加ツールやサービスを構築した例もあり、モデルが独自データを参照できるようにしたり、低遅延で動作させたりするツールが含まれる。
重要なのは、Llamaのライセンスが開発者のデプロイ方法を制約している点だ。月間アクティブ利用者が7億を超えるアプリ開発者は、Metaに対して特別ライセンスを申請し、同社の裁量で付与される。
2025年5月、MetaはLlamaモデル導入を促すスタートアップ向け新プログラムを開始した。Llama for Startupsは企業にMetaのLlamaチームによる支援と資金提供の機会を提供する。
Llamaと同時に、Metaはモデルを“より安全に”使えるようにするツールを提供している。
Llama Guardは、Llamaモデルに入力される、あるいはモデルが生成する潜在的に問題のある内容を検出しようとするもので、犯罪行為、児童の搾取、著作権侵害、ヘイト、自己傷害、性的虐待に関する内容を含む。
ただし、それが万能薬であるわけではなく、Meta自身の以前のガイドラインでは同 chatbotが未成年者と性的・恋愛的な会話をすることを認めており、実際に性的な会話へと発展した報告もある。開発者はブロックする内容のカテゴリをカスタマイズし、Llamaがサポートする全言語に対してブロックを適用できる。
Prompt GuardはLlamaに対するテキストをブロックすることも可能だが、Llamaを“攻撃”して望ましくない振る舞いを引き起こすことを意図したテキストに限定される。MetaはLlama Guardが、Llamaの組み込みの安全フィルターを回避しようとする“悪意あるプロンプト”(=いわゆる jailbreak)を含む入力に対処可能だと主張する。Llama Firewallはプロンプト注入、脆弱なコード、ツール連携のリスクを検出・防止する役割を果たす。Code Shieldは脆弱なコードの提案を抑制し、7言語の安全なコマンド実行を提供する。
CyberSecEvalはツールというより、モデルのセキュリティを測るベンチマークの集まりだ。CyberSecEvalは、Metaの基準に従って、アプリ開発者やエンドユーザーに対するLlamaモデルのリスクを、自動化されたソーシャルエンジニアリングや攻撃的なサイバー作戦の拡大といった領域で評価できる。
Llamaには、他の生成系AIモデルと同様、一定のリスクと制約が付きまとう。たとえば最新モデルはマルチモーダル機能を備える一方で、現時点では主に英語に限定されている。
俯瞰すると、MetaはLlamaの訓練に盗用の電子書籍や記事データを用いていたケースがある。連邦裁判所の裁判官は、著者13名による著作権訴訟でMetaに味方し、訓練のための著作物の利用は「フェアユース」に該当すると判断した。ただし、Llamaが著作権で保護された断片を再現して製品に組み込む場合は、著作権侵害となり得る点には注意が必要だ。
Metaはまた、InstagramやFacebookの投稿・写真・キャプションをAI訓練データとして使うことにも論争があり、ユーザーがオプトアウトしにくいと指摘される。
プログラミングは、Llamaを使う際に慎重さが求められるもう一つの領域だ。Llamaは他の生成AIと比べても、 buggy なコードや脆弱なコードを出力する可能性が高い。LiveCodeBenchという競技プログラミング問題を測るベンチマークで、MetaのLlama 4 Maverickは40%のスコアを出したのに対し、OpenAIのGPT-5 Highは85%、xAIのGrok 4 Fastは83%だった。
常に、AIが生成したコードをサービスやソフトウェアへ組み込む前に人間の専門家によるレビューを受けるのが最善だ。
最後に、他のAIモデルと同様、Llamaの出力にはもっともらしく聞こえるが誤情報や誤解を招く内容が含まれることがある。これにはコード、法的助言、あるいはAIキャラクターとの感情的な対話も含まれることがある。
本稿は2024年9月8日に初出で、最新情報に合わせて定期的に更新されている。
