テキストと画像を解釈可能

OpenAIが「GPT-4」発表。正確さ高め、安全性も強化

Image:OpenAI

ChatGPTで話題のOpenAIが、大規模言語モデル(LLC)の最新版となるGPT4を発表した。

OpenAIはこのバージョンについて、GPT-3~3.5をはじめとする以前のLLCよりもさらに大規模なデータで強化学習を施してあり、「これまで以上に創造的かつ協調的」で「より高い精度で難しい問題を解決する能力を備えている」と主張している。

たとえば、UBE(米国統一司法試験)、LSAT(ロースクール入学試験)、SAT(大学進学希望者向け共通試験)のEvidence-Based Reading and Writing(英語)およびMathematics(数学)といった各種試験において、GPT-4は88%以上のスコアを記録しているとのことだ。

なお、GPT-4は、テキストと画像、両方からの入力を解析することが可能だが、返答するのはテキスト経由でしかできないとのこと。

またOpenAIでは、バージョンは新しくなったものの、以前のGPTモデルが抱えている問題の多くは未解決のまま残っていることを警告している。GPT-3モデルでは、会話をするうちにまるでAIが幻覚を見たかのように、誤った情報を「でっち上げ」でしまったり、対話相手に誘導されて有害または暴力的な言葉を出力してしまったりといった問題が指摘されていたが、GPT-4でも同様のことが起こりうるということだ。

OpenAIのサム・アルトマンCEOは1月、GPT-4に関するうわさについて「人々は(憶測を膨らませすぎて)がっかりしたいみたいだし、きっときっとそうなるだろう」「誇大広告だというのはまさにそうで、われわれは実際の汎用人工知能(AGI)が存在しないにもかかわらず、それを発表することが期待されているような状況だ」と述べていた。

OpenAIがGPT-4のウェブページに示したサンプルでは、AIシステムがミームや珍しい画像などについて解説した結果を見ることができる。GPT-4は6か月にわたり、システムの安全性を保つトレーニングを行ったとのことで、内部テストでは「GPT-3.5に比べて許可されていないコンテンツの要求に応答する可能性が82%低くなり、正確な回答を生成する可能性が40%高まった」と述べている。

OpenAIは、今回の発表の時点ですでに複数の企業が、それぞれの製品にGPT-4を統合するため提携していることも明らかにした。もちろんそれには、マイクロソフトのBing Chatbotも含まれている。また一般ユーザーも、月額20ドルのChatGTP Plusサブスクリプションに登録すれば、この最新AI言語モデルを利用することができるとのこと。そのほか、開発者はAPI経由でもGPT-4を利用できる(要待機リスト登録)。

ちなみに、マイクロソフトは今回の発表に合わせ、Bing ChatbotがすでにGPT-4で強化されていることを明らかにしている。

関連キーワード: