
Googleは本日、新しいAIモデル「Gemini 2.5 Flash」を正式にリリースし、低コストのリアルタイム応答機能に重点を置いた「費用対効果の高い推論ツール」と位置付けています。このモデルは現在テスト用に公開されており、Google の AI 開発プラットフォーム Vertex AI で最初に利用可能になる予定です。
Googleは技術ブログで、Gemini 2.5 Flashは計算能力の動的な調整をサポートしており、開発者はタスクの複雑さに応じて処理時間を柔軟に割り当てることができると紹介した。たとえば、単純な顧客サービス問い合わせを処理する場合、システムは自動的に応答時間を短縮して請求コストを削減します。複雑な文書解析に直面した場合でも、計算精度が向上します。 Googleは、この機能により、フラッグシップモデルであるGemini 2.5 Proの全体的なコストを50%まで削減でき、AIへの高頻度の呼び出しが必要な銀行や通信などの業界に適していると述べています。
Gemini 2.5 Flashは、OpenAIのo3-miniやDeep QuestのR1と同様に、回答前に事実確認が必要な「推論最適化モデル」に分類されており、応答時間は生成モデルよりもわずかに長くなります。ただし、平均遅延は 0.8 秒以内に制御されるため、インテリジェントな顧客サービスや会議の議事録生成などのリアルタイムのシナリオに適しています。 Google は、このモデルが社内の電子メール要約ツールに適用され、1 日あたり 200 万件以上のメッセージを処理していると具体的に述べています。
Googleはまた、2024年第3四半期から、企業がGoogle Distributed Cloud(GDC)を通じて自社サーバーにGeminiシリーズモデルを導入できるようになるとも発表した。現在、NVIDIA と協力して Blackwell アーキテクチャ ハードウェアの採用に取り組んでいます。顧客は、金融や医療などの機密データ業界のコンプライアンス要件を満たすために、このチップを搭載したローカル コンピューティング デバイスを Google またはパートナー チャネルを通じて購入できます。
Google が Gemini 2.5 Flash の技術ホワイトペーパーとセキュリティ テスト結果を公開しなかったことは注目に値します。同社は、「実験的」と定義されたモデルに関する詳細な報告書は公表しないと説明したが、社内の倫理審査は通過していると約束した。以前、Gemini 1.5 Pro は画像生成の偏りにより論争を巻き起こしました。この戦略の調整により、開発者コミュニティではモデルの透明性に関する議論が巻き起こりました。
Vertex AI のバックエンドデータによると、Gemini 2.5 Flash のオープンベータ版から 3 時間以内に 12,000 社を超える企業がアクセスを申請し、そのうち 63% が顧客サービスおよびドキュメント管理分野の企業でした。 Google は、最初の一連のエンタープライズ ユーザー向けのモデル展開を 9 月までに完了する予定です。