DUICUO

Meta は、同社の検索エンジンに深く統合される最新のオープンソース大規模モデル Llama 3 をリリースしました。

米国時間4月19日、Facebookの親会社Metaはオープンソースの大規模言語モデルの最新版「Llama 3」をリリースした。シリコンバレーの人工知能をめぐる戦いは激化している。

この新しいモデルは、アップグレードされたMeta AIを強化するために設計されており、Meta AIは複数のMetaアプリケーションでより重要な役割を果たすようになります。さらに、Llama 3は、Facebook、Instagram、WhatsApp、MessengerといったMetaの主要プラットフォームの検索機能に深く統合されます。アップグレードされたMeta AIは、リンクされたコンテンツの簡単な要約も提供できるようになります。

MetaはLlama 3モデルの2つのバージョンをリリースしました。1つは80億パラメータ、もう1つは700億パラメータです。パラメータ数はAIシステムモデルの規模と性能を測る上で重要な指標であり、その複雑さと計算能力を直接反映します。Metaによると、パラメータ数が少ないLlama 3バージョンでも、パラメータ数が最も多いLlama 2バージョンに匹敵する性能を発揮します。

さらに、MetaはMeta AI AssistantチャットボットをLlama 3モデルにアップグレードする予定です。同社の最高製品責任者であるクリス・コックス氏はインタビューで、「これまでのベンチマーク結果に基づくと、Llama 3は現在市場で無料で入手できる同種の大型モデルの中で、間違いなく最も賢く、最も優れたパフォーマンスを発揮するモデルです」と述べています。

振り返ってみると、OpenAIは2022年末にAIチャットボット「ChatGPT」をリリースし、シリコンバレーのAI競争の火蓋を切りました。それ以来、スタートアップ企業から大手テクノロジー企業まで、ますます多くの企業がこの競争に参入しています。

昨年7月、MetaはLlama 2モデルを初めて公開し、9月にはInstagram、WhatsApp、Messenger上のMeta AIチャットボットに採用されました。業界の他の企業とは異なり、Metaはモデルをオープンソースソフトウェアとして公開することを選択しました。つまり、世界中の開発者がLlama 2を無料で利用し、改良できるということです。

Metaは、今後数ヶ月以内に、より多くの言語をサポートするバージョンを含む、より機能豊富なLlama 3モデルをリリースすると述べました。Cox氏は、同社が4,000億のパラメータを持つより大規模なモデルを開発中であり、トレーニングが完了した後に正式にリリースする予定であることを明らかにしました。競合のOpenAIのGPT-4モデルについては、具体的なサイズは明らかにされていませんが、業界の推定では1.5兆パラメータに達する可能性があるとされています。

ソナタ・インサイツの主席アナリスト、デブラ・アホ・ウィリアムソン氏は、MetaがAI製品に数億人のユーザーを引き付けることができれば、モデルに広告を埋め込み、他の有料サービスにも展開する可能性があると指摘する。彼女は、「消費者向けのAI体験のほとんどは、チャットボットの会話内でのターゲット広告など、最終的には何らかの形の有料広告を組み込むようになるだろう」と考えている。

Llama 3のリリースにより、Meta AIの機能はさらに拡張され、オーストラリアとカナダを含む13の英語圏市場をカバーします。ただし、このサービスは当初、欧州連合(EU)では開始されないことにご注意ください。

コックス氏はさらに、「Meta AI は、特に企業ユーザーにとって、より強力でインテリジェントになり、長いコンテンツを扱う際にリンク要約機能が非常に役立つようになるでしょう」と付け加えた。

さらに、Meta AI の画像生成機能 Emu もアップグレードされ、生成される結果の速度と品質が向上するだけでなく、ユーザーがクエリを入力すると、プレビュー結果がリアルタイムに表示されるようになります。

コックス氏は、「生成AIの分野において、Metaはこれらの高度な技術を幅広いユーザーに無料で提供することに尽力しています」と述べた。また、Llamaモデルの大規模版のリリースに伴い、OpenAIのChatGPT PlusやGoogle One AI Premiumと同様の月額サブスクリプションモデルの導入を検討する可能性もあると強調した。

注目すべきは、Meta が Llama 3 をトレーニングする際に合成データ (他の AI モデルによって生成されたテキスト) を使用したことです。テクノロジー企業は AI モデルのトレーニング用のデータ不足に直面しており、より多くのデータを取得または作成するための新しいソリューションを模索せざるを得なくなっています。