「o3」:AGI時代の幕開けを告げる思考するAI

2024年12月20日、米国のOpenAIは、AGI(汎用人工知能)に最も近いモデルとして「o3」を発表しました。
AGIとは、AIが人間の知能と同等のレベルに達した人工知能を指します。この発表は、OpenAIが主催した12日間にわたるクリスマス連続ストリーミングイベントの最終日に行われ、世界中から大きな注目を集めました。

当初、このモデルは「o2」と命名される予定でしたが、英国の携帯キャリア「O2」と名称が重複する可能性を避けるため、「o3」という名称が採用されました。「o3」は「思考するAI」として、高度な推論能力を備えた最先端の性能を誇ります。しかし、具体的な技術的詳細や一般公開の時期については現時点で未定です。

「o3」には、安全性を強化するためのアルゴリズムであるDeliberative Alignmentが実装されています。この技術は、AIがポリシーや安全基準を自律的に判断し、悪用を防止する仕組みを備えています。近年、LLM(大規模言語モデル)の性能向上により、正確性と自律性が飛躍的に進化している一方で、その応用範囲が広がることで社会への影響も増大しており、「o3」はこれに対応する対策として設計されています。

さらに、「o3」からの蒸留モデルである「o3 mini」の公開が2024年1月末に予定されています。「o3 mini」は、「o3」の性能を継承しながらも、軽量化とコスト効率の向上を実現した設計が特徴です。ただし、「o3」そのものの一般公開予定はまだ発表されていません。

この記事では、「o3」の技術的詳細や性能について深掘りし、その可能性と影響について解説していきます。

 

目次

 

「o3」の性能:次世代AIの進化を示す1.5^n倍の躍進

まず、主要なベンチマークについて解説し、その後に劇的に向上した性能について説明します。「o3」は数学性能、科学知識、エンジニアリング能力、コード性能がそれぞれ約1.5倍向上しています。この性能向上は、既存モデル「GPT-4o」の1.5倍ではなく、現時点で最高性能を誇る「o1」の1.5倍に相当します。このことから、「o3」が非常に優れた性能を持つモデルであることが明らかです。

特に数学やコード、科学の知識レベルの向上により、より多角的な推論が可能となりました。数学や科学のベンチマークでは、「Competition Math」および「Ph.D.-level Science Questions」の結果が示す通り、それぞれ96.7%および87.7%という高い正答率を記録しています。これらは専門家レベルの高度な問題を対象としたものであり、AIが人間を超える知識を多くの分野で持つことを証明する結果となっています。

特筆すべきは、「o3」が人間のように特定の分野に専門・特化するだけではなく、法律や科学、エンジニアリングなど、あらゆる分野において専門家レベルの知識を有している点です。さらに、それらを統合し、俯瞰的な視点から問題を捉える能力を持っています。これにより、「現在の地球温暖化の要因を列挙し、AIを活用した革新的な対策とビジネスモデルを提案してください」といった複雑な問いに対しても、「o3」は推論能力と知識の両面で革新的な解決策を見つけることができることでしょう。このようにして人間を超えるアイディアが「思考するAI」によって導き出されるのです。

さらに、o3は現時点で最高性能を誇る「o1」の1.5倍の性能に相当していました。これは、知識の向上(1.5倍)と推論能力の向上(1.5倍)が組み合わさることで、単純計算でも1.5²(2.25)倍以上の性能向上が見込まれます。これにより、「o3」は知識と推論性能の両面で乗算的な成長を実現しており、この成長こそがAIの進化が指数関数的であるといわれる理由です。

こうした革新的な性能向上により、「o3」は「o1」を大きく超え、AGI(汎用人工知能)に近づいたモデルとして位置づけられています。

出典:o3 :Open AI公式Youtube

 

「o3 mini」:軽量化と高性能の両立

1月末に公開予定の「o3」の蒸留モデル「o3 mini」について、その性能と特徴を詳しく考察します。先述した通り、「o3」はAGI(汎用人工知能)に近く、現代最高性能を誇る「o1」をはるかに凌駕するモデルです。「o3 mini」は、その「o3」の一部の性能を抽出し、性能とコストのバランスを追求したモデルです。

驚くべきことに、「o3 mini」はコード性能、数学性能、科学知識においても、現代最高性能とされる[o1]を超える実力を発揮します。それにもかかわらず、「o3 mini」は運用コストを劇的に抑えることに成功しています。具体的には、「o1」よりも高い性能を持ちながら、運用コストは約1/10にまで削減されています。この点は、以下のコスト対性能のグラフからも明らかです。

「o3 mini」は、高性能と低コストを両立したモデルとして、多くの分野で活用されることが期待されます。1月末の一般公開により、これまでのLLM(大規模言語モデル)の概念を覆す新たな基準を示すでしょう。

出典:o3 :Open AI公式Youtube

 

 

新たな評価基準:「o3」が描くAGIへの道筋

今回の発表では、「o3」が従来のベンチマークを超え、AGI(汎用人工知能)にどれだけ近づいているかを示す新たな指標が明らかになりました。これにより、「o3」が次世代のAIとしてどれほどの可能性を秘めているかを具体的に確認することができます。

まず、数学の難問を集めた「Research Math」ベンチマークについて説明します。このベンチマークは、解決に数時間から数日を要する高度な数学問題で構成されており、AIの推論能力を厳密に測定します。従来の最先端モデル(Previous SoTA)では正答率がわずか2%と、人間の数学者の能力と比較して大きな差がありました。しかし、「o3」では正答率が25%に達し、従来モデルの13倍の成長を遂げています。

この成長により、「o3」は人間の専門家に匹敵する能力に近づいており、AGIに向けた大きな一歩を示しています。この進化は、AIがより高度な知識と推論力を備えつつあることを示し、AGI達成に向けた重要な指標となります。

次に、人間のような推論能力を評価する「ARC-AGI Semi-Private Evaluation」について考察します。このベンチマークは、AIが未知の問題に適応する能力を評価するもので、単なるパターン認識や過去データへの依存ではなく、真の推論力を試します。

現時点で最高性能を誇る[o1]が32%の正答率であるのに対し、「o3」は87.5%という圧倒的な結果を示しました。これは約3倍の成長を意味し、従来モデルとは一線を画す性能向上を表しています。この87.5%という数字は、完璧な正答率である100%にあと10%と迫るものであり、「o3」が人間のような推論能力にどれだけ近づいているかを物語っています。

さらに、この性能は単なる比較を超え、未知の課題に対して新たな解決策を導き出す可能性を示唆しています。「ARC-AGI」は、AIが人間を超えた新たな領域に挑戦し、人間では到達できなかった答えを見つけるための評価基準として、AIの進化の未来を象徴するものです。

出典:o3 :Open AI公式Youtube

 

Deliberative Alignment:AIの悪用を防ぐCoTによるセーフガード

AIの性能が向上する一方で、倫理的課題がより顕著になりつつあります。特に、コード生成能力の向上により、AIがハッキングやウイルス作成などの行為に利用される懸念が高まっています。ただし、AIはQ関数(期待値関数)に基づき、人間(ユーザー)の幸福を最大化するように設計・トレーニングされています。そのため、現在のAIが自発的に暴走することはありません。

しかし、悪意あるユーザーによるプロンプト操作(例:ジェイルブレイク)を通じて、不正行為が行われるリスクは依然として存在します。「o3」は性能が大幅に向上しているため、可能なことも広がっており、これが悪用リスクを高める要因となっています。

従来は、悪意あるプロンプト操作を監督付き微調整(SFT)や人間のフィードバックに基づく強化学習(RLHF)により、安全性はある程度向上してきましたが、以下のような課題が残されていました:

  • 有害な内容を漏洩するリスクがある。
  • 正当なリクエストを拒否する可能性がある。
  • ジェイルブレイク攻撃に対して脆弱である。

これに対処するため、「o3」では革新的なアルゴリズムであるDeliberative Alignmentを導入しました。このアルゴリズムは、AIが応答を生成する前に、CoT(Chain of Thought)推論を活用し、ユーザーのプロンプトを検討した上で関連するポリシーガイドラインを特定し、安全な応答を生成できるようにしています。これにより、「正しい理由で正しい応答を行う」モデルの訓練が可能となりました。

出典:Deliberative Alignmentについて:Open AI

毎回、安全性推論を追加することでコストが増大する問題も考慮されています。無害なユーザープロンプトに対しても過剰な安全仕様推論を行うことは非効率であり、コスト負担が大きくなります。「o3」では、推論中に安全性に関する知識をモデル自体に埋め込み、並行処理を行うことで、これらの問題を解決しています。この設計により、効率的かつ堅牢な安全性が確保されています。

安全カテゴリとして、以下が含まれます:

  • エロティックコンテンツ
  • 過激主義
  • 嫌がらせ
  • 不法行為
  • 規制対象の助言(例:医療・法律)
  • 自傷行為
  • 暴力

以下の図表は、AIの正確性(縦軸)とJailbreak Performance(横軸、AIが不適切な出力を引き出される耐性)を示しています。「o3」の前モデル「o1」は、このアルゴリズムを採用することでほとんどの悪意ある脱獄攻撃を検出・阻止する能力を持ち、性能指標で0.9に近い数値を記録しています。これに対し、Claudeは0.6、Geminiは0.1という結果に留まっています。これにより、「o3」がAGIに近い画期的な性能を持ちながらも、安全で堅牢な設計を備えていることが明確です。未知の課題に挑みながらも、悪用されないAIとして設計されている点は非常に注目に値します。

 

出典:o3: Open AI公式blog

 

 

まとめ

  • o3: AGIに最も近い「思考するAI」
  • o3 mini: 「o1」と同等以上の性能を持ちながら、コスト効率は1/10
  • Deliberative Alignment: 安全性を実現するCoTを活用した革新的なアルゴリズム

「o3」と「o3 mini」の正式な一般公開時期は未定ですが、新たなベンチマークとして、従来のClaudeやGPT-4o、o1とは異なるアプローチでAGI性能を評価する基準が追加されました。AIの進化は加速しており、AGIが達成されAIが人間を超えるのは2025年中に実現する可能性が高いでしょう。

今後もAIや最新技術に関する記事を投稿していきますので、随時チェックしていてください!

 

参考文献