DUICUO

「AIゴッドファーザー」が警告:オープンソースの大規模言語モデルはAIをさらに危険にする可能性がある。


ここ数か月、世界中の AI ラボはいくつかの大規模な言語モデルを開発しました。

オープンソースの大規模言語モデルの潜在的な問題

OpenAIのGPT-4やGoogleのPaLMといった大規模言語モデルは、ChatGPTのような生成AIシステムの技術的サポートを提供しています。ここ数ヶ月、ChatGPTのようなAIシステムは企業や消費者の間で急速に普及しています。これらのツールは、詳細な画像やテキストを数秒で自動生成できるため、多くの業界にとって革命的な存在となる可能性があります。しかしながら、AIモデルの閉鎖性と開発コストの高さから、これらのシステムの導入はユーザーにとって非常に高額なものとなっています。

そのため、特に AI の力を活用して ChatGPT などのツールを使用したい中小企業にとっては、大規模な言語モデルがより費用対効果の高い代替手段になる可能性があると多くの人が考えており、オープンソースはそのようなソリューションの 1 つです。

しかし、ヒントン氏は、進化と成長を続ける大規模言語モデルが問題を引き起こす可能性があると考えている。ヒントン氏は先月、AIの発展に関する懸念を自由に表明できるとして、Googleでの職を辞任した。

ヒントン氏は、ケンブリッジ大学生存リスク研究センターでの最近の講演で、「大規模言語モデルをオープンソース化することの危険性は、より多くの狂人がAIを使って無茶なことをできるようになることだ」と述べた。

大規模な言語モデルを「ケージ」に入れることは有益かもしれません。

ヒントン氏は、大規模な言語モデルを OpenAI のような企業の研究室に限定しておくことが、最終的には有益となる可能性があると考えています。

彼は、「もしこれらのAI技術が危険なら、複数の国で複数の大企業に開発させ、同時に制御方法を見つけてもらうのが最善だ。コードがオープンソース化されれば、一部の人間がそれを使って様々な常軌を逸したことをし始めるだろう」と述べた。

ヒントン氏は講演の中で、GPT-4が既に知能の出現の兆候を示していると考えていると述べた。また、いわゆる超知能AIが人間の知能を超える時もそう遠くないという確信を改めて表明した。

「これらのAIシステムは私たちよりも賢くなるでしょう。そして、それはすぐに起こるかもしれません。以前は50年から100年かかるかもしれないと思っていましたが、今では5年から20年以内に起こる可能性があると考えています。もしそれが5年以内に起こるなら、哲学者に何をすべきかを決めさせることはできません。実践的な経験を持つ人々が決定を下す必要があるのです」と彼は強調した。

彼はさらに、「AIへの対処法については、シンプルな答えがあることを願っています。AI開発者は、開発段階でAIモデルの安全性を検証するために、多くの人材とリソースを投入することが最善策だと思います。AIがどのように制御不能になるのか、そしてどのように制御できるのかを理解するために、これらの分野で経験を積む必要があります」と述べた。

5月26日、ヒントン氏が以前勤務していたグーグル傘下のAI研究所ディープマインドは、AIがもたらす潜在的なリスクを検知できる早期警告システムを開発したと発表した。

いくつかの大規模な言語モデルはオープンソース化され、製品化されています。

現在、いくつかの大規模言語モデルがオンラインで公開されています。特に、今年 3 月にオンラインで漏洩した Meta の大規模言語モデル LLaMa のソース コードが注目されています。

ソフトウェアベンダーは、インストール可能で、ターゲットを絞り、パーソナライズされた大規模言語モデルに対する企業の需要の高まりを捉えようとしています。4月には、DatabricksがDolly 2.0と呼ばれる大規模言語モデルをリリースしました。これは、商用利用に特化した初のオープンソースで命令準拠の大規模言語モデルであり、ChatGPTのような機能を備え、企業内で実行可能であると謳っています。

オープンソースモデルの支持者たちは、ChatGPTのようなAIシステムの利用を「民主化」する可能性を秘めていると主張している。今月初め、ソフトウェア開発者のキールタナ・ゴパラクリシュナン氏はメディアに対し、「実験への参入障壁を下げることが重要だと考えています。この技術に興味を持つ人はたくさんいます。彼らはAIを通じて革新を起こしたいと強く願っているのです」と語った。