Google DeepMind「Gemini Robotics 1.5」発表

これは創作画像です
Google DeepMindが発表したGemini Robotics 1.5/ER 1.5は、ロボットが「考えてから動く」ことを可能にする革新的なAIモデル
本記事では仕組みや特徴、応用可能性を考えてみた。
2025年9月25日、Google DeepMindは「Gemini Robotics 1.5」と「Gemini Robotics‑ER 1.5」を発表しました。これにより、ロボットが人間のように状況を分析し、段階的に計画を立てることが可能になりました。さらに、実際に動作を実行する仕組みが現実のものとなりつつあります。今回はその概要と、私たちの生活へのインパクトについて紹介します。
Gemini Robotics 1.5 とは?
Gemini Robotics 1.5は、視覚・言語・行動を統合したAIモデルです。具体的な動作を実行する役割を担い、ロボットアームや人型ロボットといった様々な形態に適用できます。
一方で、Gemini Robotics‑ER 1.5は「考える部分」を担当します。タスクを受け取り、どのように実行するかを段階的に計画し、それをRobotics 1.5に渡して動かすという流れです。
- 命令(Input):人間が指示を与える
- ER 1.5(考える・計画):指示を分析し、ステップを設計
- Robotics 1.5(実行):計画されたステップに従って動作

特徴と可能性
- Think-before-Acting(考えてから動く):従来のロボットのように「即実行」ではなく、一度考えてから行動する。
- クロスロボット学習:ALOHA2、Franka、Apptronik Apolloなど異なるロボット間でスキル転送が可能。
- ツール活用:ER 1.5はGoogle検索など外部ツールも呼び出せる。
日本の現場での応用可能性
工事・建築現場において、以下のような応用が想定されます。
現場監督支援:ロボットが作業手順を確認し、適切に動作を補助。
危険作業の代替:高所作業や狭所作業をロボットに任せられる可能性。

現状と制約
提供状況:ER 1.5はGoogle AI StudioのGemini APIを通じてプレビュー提供中。
Robotics 1.5は、現時点ではパートナーや限られた研究機関のみが利用可能。
まとめ
Gemini Robotics 1.5は、単なるロボット制御AIではなく「考える力」を備えた新時代のロボティクス基盤です。今後、日本の工事現場や家庭内、さらには介護や物流といった分野にまで広がる可能性があります。今のうちに動向をウォッチしておくと面白いかもしれないです。
設計ができて、現場監督ができて、作業もできて・・もうそこまで行ったら面白い。
