出典:IT Home
Googleは昨日(2月5日)、すべてのGeminiアプリユーザーに最新のGemini 2.0 Flashアプリモデルにアクセスし、2.0 Flashの思考推論実験モデルを手放すよう促すブログ投稿を公開しました。
2.0 Flash: 新しく更新され、完全にオープンになりました
I/O 2024で初めて発表された2.0 Flashモデルは、その低レイテンシーと高性能により、開発者コミュニティの間ですぐに人気の選択肢となりました。大規模で高頻度のタスクに適したこのモデルは、最大100万トークンのコンテキストウィンドウを扱うことができ、強力なマルチモーダル推論を実証しています。
Gemini 2.0 Flashモデルは、YouTube、Google検索、Googleマップのようなアプリと相互作用し、ユーザーが複数のアプリケーションシナリオで知識を発見し、拡大できるようにします。
Gemini 2.0 Flash思考モデル
2.0 FlashのスピードとパフォーマンスをベースにしたGemini 2.0 Flash思考モデルは、プロンプトを一連のステップに分解するようにトレーニングされており、推論を強化し、より良い回答を提供します。
2.0フラッシュ思考実験モデルは、その思考プロセスを示すので、ユーザーは、なぜ特定の方法で回答するのか、その前提は何か、モデルの推論ロジックを追跡することができます。この透明性により、ユーザーはモデルの意思決定プロセスをより深く理解することができます。
Geminiはまた、YouTube、検索、Googleマップなどのアプリと相互作用する2.0 Flash Thinkingバージョンも発表しました。これらの接続されたアプリは、すでにGeminiをユニークなAIアシスタントにしており、将来的には、新しい推論機能をユーザーアプリと組み合わせて、ユーザーがより多くのことを行えるようにする方法を探求する予定です。
2.0 Proの実験版:最高のプログラミング性能と複雑なキューの単語処理
Googleはまた、Gemini 2.0 Proの実験版も発表しました。このモデルは、プログラミングと複雑なキューへの回答に優れていると公式に主張しています。このモデルは、200万トークンのコンテキストウィンドウ、大量の情報を完全に分析し、理解する能力、およびGoogle検索やコード実行などのツールを呼び出すためのサポートを備えています。
開発者は現在、Google AI StudioとVertex AIでこの実験的バージョンのモデルを体験することができ、Gemini Premiumユーザーはデスクトップとモバイルでアクセスできます。 IT Homeでは、モデルのパフォーマンスの比較を以下のように掲載しています:

2.0 Flash-Lite:最も費用対効果の高いモデル
グーグルAI Studioはまた、Gemini 2.0 Flash-Liteモデルを発表しました。1.5Flashよりも高品質でありながら、コストを抑え、レスポンスを速くするように設計されています。
このモデルはまた、100万トークンに対してコンテキストウィンドウとマルチモーダル入力をサポートしており、例えば、Google AI Studioの有料サブスクリプションでは、1ドル未満で4万枚のユニークな写真に対して1行の関連する説明を生成することができます。