Googleの年次イベント、米国カリフォルニアで行われたGoogle I/O 2025は、AI一色なイベントとなりました。非常に注目度の高い発表がいくつも行われました。
今回は、これらの発表内容を紐解きながら、ぼくなら「どう使いたいか?」といった視点も交えながら振り返りをしています。最終的に、どのプランで何ができるかを整理。最先端の生成AI利用を検討している方にも参考になれば嬉しく思います。
研究段階にあった技術が実用化され、私たちの生活や仕事に大きな影響を与える可能性を強く感じたイベント内容でした。間違いなく、必聴です。
ポイント:
AIの進化と普及: GoogleのAIモデル「Gemini」は急速に進化し、APIのトークン処理量は1年で50倍、開発者数は5倍に増加しました。
コミュニケーションの進化: リアルタイム翻訳機能を備えた3Dビデオ通話「Google Beam」が登場し、言語の壁を越えたコミュニケーションを可能にします。
AIエージェントの実用化: 「Gemini Live」やエージェントモードにより、AIが画面を共有しながらリアルタイムでサポートしたり、予約などを自動で行ったりできるようになります。
検索体験の向上: Google検索にAIモードが追加され、より深い情報提供や対話型の検索が可能になります。
パーソナライゼーションの深化: GmailやGoogleドライブ内の情報を活用し、より個人に最適化されたAIサポートが実現します。
クリエイティブツールの進化: AIによる動画生成や映画制作ツールが登場し、クリエイティブな表現の可能性を広げます。
トランスクリプト:
00:01:10: Google I/Oの発表動画の冒頭部分を紹介。
00:02:22: Google Japanのブログ「Google IO 2025 研究が現実に」を参照しながら解説を進める方針。
00:03:00: 今回の発表のテーマは「研究が現実に」。Googleが研究してきたものがプロダクトに搭載される。
00:03:45: 2024年から2025年にかけてのAIモデルの成長と、Gemini Proのリーダーボードでの実績を紹介。
00:04:14: Gemini AIの利用状況。APIの月間トークン処理量は480兆(昨年比50倍)、開発者数は700万人以上(昨年比5倍)。
00:05:08: Geminiの月間アクティブユーザー数は4億人以上。2.5 Proモデルの利用率も高い。
00:05:40: 発表内容は主に5つのカテゴリーに分類:コミュニケーション、AIエージェントの実用化、検索へのAIモード追加、パーソナライゼーション、モデル性能向上(DeepSync、動画生成など)。
00:07:16: 発表された機能は米国で先行ローンチされ、数ヶ月以内に日本でも利用可能になる見込み。
00:07:46: 今回は特に注目すべき7つの機能をピックアップして解説。
00:08:09: 1つ目は「Project Starline」から生まれた「Google Beam」と音声翻訳機能。3D体験が可能なビデオ通信プラットフォーム。
00:09:02: Google Beamのデモ動画を紹介。リアルタイム翻訳により、異なる言語話者同士が自然に会話できる様子。
00:10:07: Google Meetに搭載されるこの機能により、海外とのビジネスコミュニケーションが円滑になる可能性。
00:11:23: 2つ目は「Project Astra」から生まれた「Gemini Live」。AIが画面を共有しリアルタイムでサポート。
00:11:54: Gemini Liveのデモ。スマートフォンで映したものをAIが認識し、関連情報や指示を提供。自転車修理の例。
00:13:14: Gemini Liveは料理など日常的な場面でのAI活用を促進する可能性。
00:14:23: 3つ目は「Project Marina」から生まれたエージェント機能。Geminiがチケット予約や店舗予約などを自動で行う。
00:15:05: Geminiアプリのエージェントモードで、旅行プラン作成からホテル予約まで一貫してAIがサポート。
00:16:08: Googleの強みであるブラウザと検索エンジンを活かした高品質なエージェント機能に期待。
00:16:21: 4つ目はパーソナライゼーション。GmailやGoogleドライブの内容をAIが理解し、メール作成などをサポート。
00:17:21: Googleドライブに情報を蓄積することで、より自分に合ったAIサポートを受けられるようになる。
00:18:44: ローカルファイルとGoogleドライブを同期させ、クラウドサービス利用時のパーソナライズ精度向上を目指す。
00:20:08: 5つ目は検索におけるAIモード。Google検索がエージェント化され、対話型の情報収集が可能に。
00:20:32: GoogleアプリにAIモードが追加され、Geminiに質問するように回答を得られる。
00:21:23: AIモードには「Deep Research」機能も搭載され、より深い情報検索が可能になる。
00:21:51: Chromeに搭載されるエージェント機能と組み合わせることで、Chromeが主要ブラウザとしてさらに強力になる可能性。
00:22:13: 「Gemini in Chrome」のデモ動画を紹介。ブラウザ上でGeminiに質問したり、複数のタブ情報を比較させたりできる。
00:24:09: Gemini in Chromeは日本語にも対応しており、非常に便利そう。リサーチ作業の効率化に期待。
00:25:46: 6つ目はGeminiの性能向上。「DeepSync」により、Gemini 2.5 Proがより深く推論可能に。PDFなどのドキュメントも直接扱える。
00:26:28: Deep Researchで得た結果をPDF化し、さらに別のAIでクロスチェックするなど、より深い調査が可能。
00:27:57: 7つ目はメディア関連。AIによる動画生成(ショートムービー作成など)が可能に。
00:28:23: AIが生成したショートムービーのデモを紹介。1行のプロンプトから動画が生成され、編集も可能。
00:29:40: AIによる動画作成が普及することで、より質の高いコンテンツが求められるようになる可能性。
00:30:33: 最後に料金プランについて。新しい「AI Pro」と「AI Ultra」プランが登場。
00:31:36: AI Proプランでは、動画編集ツール「Flow」や画像・動画生成AI「Veo」などが利用可能。
00:32:25: AI Ultraプランは高価だが、DeepSyncへの独占アクセスやProject Marina(エージェントモード)の早期アクセスなどが含まれる。YouTubeプレミアムも付帯。
00:33:39: 現時点ではAI Proプランで十分な機能が利用できるとの見解。ChromeのGeminiもProプランで利用可能になる予定。
00:34:53: 学生向けの無料期間や初回登録者向けの無料トライアルを活用して試してみることを推奨。
Share this post