Google DeepMind「Gemini Robotics 1.5」発表

Aiロボティクスの未来

これは創作画像です

Google DeepMindが発表したGemini Robotics 1.5/ER 1.5は、ロボットが「考えてから動く」ことを可能にする革新的なAIモデル

本記事では仕組みや特徴、応用可能性を考えてみた。


2025年9月25日、Google DeepMindは「Gemini Robotics 1.5」と「Gemini Robotics‑ER 1.5」を発表しました。これにより、ロボットが人間のように状況を分析し、段階的に計画を立てることが可能になりました。さらに、実際に動作を実行する仕組みが現実のものとなりつつあります。今回はその概要と、私たちの生活へのインパクトについて紹介します。


Gemini Robotics 1.5 とは?

Gemini Robotics 1.5は、視覚・言語・行動を統合したAIモデルです。具体的な動作を実行する役割を担い、ロボットアームや人型ロボットといった様々な形態に適用できます。

一方で、Gemini Robotics‑ER 1.5は「考える部分」を担当します。タスクを受け取り、どのように実行するかを段階的に計画し、それをRobotics 1.5に渡して動かすという流れです。


  • 命令(Input):人間が指示を与える
  • ER 1.5(考える・計画):指示を分析し、ステップを設計
  • Robotics 1.5(実行):計画されたステップに従って動作



特徴と可能性

  • Think-before-Acting(考えてから動く):従来のロボットのように「即実行」ではなく、一度考えてから行動する。
  • クロスロボット学習:ALOHA2、Franka、Apptronik Apolloなど異なるロボット間でスキル転送が可能。
  • ツール活用:ER 1.5はGoogle検索など外部ツールも呼び出せる。

日本の現場での応用可能性

工事・建築現場において、以下のような応用が想定されます。

現場監督支援:ロボットが作業手順を確認し、適切に動作を補助。

危険作業の代替:高所作業や狭所作業をロボットに任せられる可能性。


現状と制約

提供状況:ER 1.5はGoogle AI StudioのGemini APIを通じてプレビュー提供中。

Robotics 1.5は、現時点ではパートナーや限られた研究機関のみが利用可能。


まとめ

Gemini Robotics 1.5は、単なるロボット制御AIではなく「考える力」を備えた新時代のロボティクス基盤です。今後、日本の工事現場や家庭内、さらには介護や物流といった分野にまで広がる可能性があります。今のうちに動向をウォッチしておくと面白いかもしれないです。
設計ができて、現場監督ができて、作業もできて・・もうそこまで行ったら面白い。




コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です