「Gemini 2.0 Pro」の登場とGeminiアプリの最新アップデートを徹底解説!

目次
  1. はじめに
  2. Gemini 2.0 Proの特徴は?
  3. Gemini 2.0 Flash Liteの特徴は?
  4. Geminiアプリの最新アップデート情報!
  5. Gemini 2.0 とo3-mini-highを比較
  6. まとめ

1.はじめに

Googleは昨年12月にGemini 2.0モデルファミリーの初期モデルとして、「Gemini 2.0 Flash」を発表しました。Gemini 2.0 Flashは、これまでのGeminiよりも高速かつ高性能なモデルというだけでなく、AIエージェント開発に最適化されたモデルとして注目を集めました。さらに今年の初めには、推論力を大幅に強化した「Gemini 2.0 Flash Thinking」の実験版モデルをGoogle AI Studio上で公開しました。

そして先週には、Geminiアプリ上で、全てのユーザーがGemini 2.0 Flashを利用できるようになりました。Gemini 2.0モデルファミリーの開発を急ピッチで進めているGoogleは、2025年2月5日に最新のGemini 2.0モデル「Gemini 2.0 Pro」を発表しました。これと同時に、Geminiアプリ上でいくつかの最新モデルを一般公開するなどのアップデート情報も発表されました。この記事では、GoogleのGeminiの最新モデル「Gemini 2.0 Pro」と「Gemini 2.0 Flash-Lite」、Geminiアプリの最新アップデート情報をご紹介していきます。ぜひ最後までチェックして、Geminiを使いこなしていきましょう!

Gemini 2.0に関する記事はこちら

Gemini 2.0 Flash Thinkingに関する記事はこちら

 

2.Gemini 2.0 Proの特徴は?

2月5日の発表では、正確には「Gemini 2.0 Pro Experimental」と呼ばれる実験版のモデルを公開しました。これは、正式公開前に実験版として公開することで、一部の開発者からフィードバックをもらう目的とされています。今回の最新モデルは、これまでのGeminiモデルよりも優れたコーディングパフォーマンスを持ち、さらに複雑なプロンプトへの処理能力も向上したとされています。さらには、200万トークンという非常に大きなコンテキストウィンドウを持つため、大量の文書資料や長時間の対話にも有効です。また、AIエージェントを実現するモデルとして、Google検索やコード実行などのツールを呼び出す機能も備わっているとされています。

Gemini 2.0モデルファミリーのベンチマーク評価(下図)を見てみると、多くのベンチマークでこれまでのモデルを凌駕する性能を持っていることが確認できます。特にコーディングやマルチモダリティ(ImageやAudio、Videoなど)に関するベンチマークでは、これまでのモデルを上回っていることがわかります。

現在、Gemini 2.0 Proは、Google AI Studioおよび、Vertex AI上で開発者向けに実験版として公開されています。また、Geminiの有料ユーザー(Gemini Advanced)では、デスクトップおよびモバイルアプリ上で実験版として公開されています。

 

3.Gemini 2.0 Flash-Liteの特徴は?

Gemini 2.0 Pro Experimentalの発表と同時に公開されたのが、「Gemini 2.0 Flash-Lite」です。このモデルは従来の高速モデル「Gemini 1.5 Flash」の品質を向上したモデルとして公開されており、Gemini 1.5 Flashと同じ速度、同じ価格で、1.5 Flashを上回る品質を誇ります。Gemini 2.0 Flashと同様に、100万トークンという非常に長いコンテキストウィンドウとマルチモダリティを維持しながら、低コストで利用できるのは魅力的です。上図のベンチマーク評価を見ると、コーディングや長い文脈には改善の余地があるようですが、全体的には品質の向上が見られます。Gemini 2.0 Flash-Liteは、現在はGoogle AI StudioとVertex AIで利用可能となっています。

 

4.Geminiアプリの最新アップデート情報!

さらに、Googleから発表されたGeminiアプリの最新アップデートをご紹介していきます。最新アップデートの内容は大きく分けて2つあります。

① Gemini 2.0 Flash Thinkingの公開!

Google AI Studioで公開されていた「Gemini 2.0 Flash Thinkingが、Geminiアプリで利用可能になりました。このモデルはGemini 2.0 Flashと比較して推論力が向上しており、特に推論ステップを表示できるといった特徴を持っています。これは、CoT(Chain of Thought)と呼ばれる技術によるもので、一回の確率計算で結果を出力する従来のLLMとは全く異なる仕組みとなっています。

② Gemini 2.0 Flash Thinking with appsの公開!

今回、Geminiアプリに追加された「Gemini 2.0 Flash Thinking with apps」は、他のサービス(YouTubeやGoogleマップ、Google検索など)と組み合わせて推論する機能となっています。外部のツールと連携できるため、ちょっとしたエージェントとしての利用が期待されます。

例えば「東京タワーの近くでリーズナブルなディナーを楽しめるお店を探してください。」と指示すると、以下のように出力されました。Google検索を活用して店舗を検索し、さらには、その位置情報をGoogleマップで表示してくれました。人間が検索するよりは楽に調査することができました。

 

5.Gemini 2.0 とo3-mini-highを比較

ここでは、Gemini 2.0 FlashとGemini 2.0 Flash Thinking、Gemini 2.0 Pro、さらにはOpenAIの最新モデルo3-mini-highのパフォーマンスを比較していきます。検証するテーマとしては、ほとんどのLLMが困難とする「しりとり」です。しりとりは、日本人なら誰でも遊んだことがある、シンプルな言葉遊びゲームです。

各モデルの回答をまとめてみると、次のようになります。

Gemini 2.0 Flash
  • 「ん」から始まる言葉を使ってしまうことがある。
  • 「ラーメン」→「メンチカツ」のように、二文字しりとりを始めてしまうことがある。
  • 文字数制限に従えない。
Gemini 2.0 Flash Thinking
  • ルール違反をすると自己修正を行う。
  • 自己修正をしても失敗してしまうことがある。
  • ユーモアのある話し方をする。
  • 「もやし」を4文字と捉えるなど、文字数のカウントが得意ではない。
Gemini 2.0 Pro
  • 通常のしりとりはミスなく続けることができた。
  • 文字数制限のあるしりとりでは、「ん」で終わる言葉や二文字の言葉を返すことがある。
o3-mini-high
  • 全てのしりとりをミスなく続けることができた。
  • 最初と最後の文字を抽出することでミスを回避している。
  • 文字数のカウントを厳密に行うことができる。

 

以上の内容を踏まえると、最も日本語に扱いになれていたのは、現段階での最先端モデル「o3-mini-high」となりました。それに続いて「Gemini 2.0 Pro」の性能が高いように感じました。文字数制限のあるしりとりでは上手く実行できなかったものの、Gemini 2.0 Flashよりは大幅に日本語の扱いになれていることがわかりました。Gemini 2.0 Flash Thinkingでは、CoT(Chain of Thought)の仕組みにより、自己修正を試みる様子が見られましたが、根本的な問題の解決には至りませんでした。

今回の検証では、o3-mini-high、Gemini 2.0 Pro、Gemini 2.0 Flash Thinking、Gemini 2.0 Flashという結果になりました。他にもコーディングや市場調査などといった、実用的なタスクでも検証していきたいですね。

 

6.まとめ

この記事では、Googleの最新モデル「Gemini 2.0 Pro」とGeminiアプリの最新アップデートを中心にご紹介しました。この記事のまとめは、以下のようになります。

  • 最新モデル「Gemini 2.0 Pro」はコーディングと複雑なプロンプトの能力が向上
  • 現在は2.0 Proと2.0 Flash-Liteが実験版として公開中
  • 全てのユーザーがGeminiアプリ上でThinkingモデルを利用可能に!
  • 外部のツールと連携するモデルも利用可能

GoogleのLLMの実験版はGoogle AI Studio上で利用するのが便利です。Geminiアプリのみならず、最新のモデルにも手を伸ばしてみてはいかがでしょうか。今後もGoogleのLLMに注目していきましょう。

 

また、当社ではGoogleと連携して、企業に眠るデータを活用するプラットフォーム「IDX AI孔明™」をご提供しております。ご興味のある方は、以下のリンクからご確認ください。

IDX AI孔明™のお問い合わせはこちら

 

【参考文献】