ニュース
HOME > ニュース > Gadgetニュース
公開日 2022/10/24 11:29
最後は人の勝ち(いまのところ)
Googleが開発する卓球ロボット、人とのラリーで340回ノーミスを達成
Munenori Taniguchi
人工知能(AI)は、チェスや将棋など動きを伴わないボードゲームの実力では、すでに人類を追い越したといっても過言ではないが、スポーツの世界ではまだまだ人にかなうほどのことはできていない。
しかし、Google AIはロボットに卓球をさせて人を追い越そうとしている。いまのところは、相手とのプレイに「協力的」だと強調されているが、開発が本気で行われているならば、いずれはプロの選手を相手にとんでもない戦いを演じるようになりそうな気がしないでもない。
i-Sim2Realと呼ばれるGoogle AIのプロジェクトは、動きが速く予測できない相手やボールの動きに合わせて動作するロボットシステムの開発を目的としたものだ。また、卓球は他のスポーツに比べて行動範囲が狭く、ルールや動作が複雑すぎず単純でもない、バランスの良いスポーツなのだとか。
Sim2Realという名称は、機械学習のモデルがバーチャルな環境やシミュレーションによって学習し、そのスキルを現実の世界に適用するAI構築方法を指している。これは実用的なレベルにまで何度も試行錯誤を繰り返す必要があるようなケースにおいて有効な方法だ。AIはシミュレーションのなかで時間のかかるトレーニングや経験を短時間で積み上げることができる。
とはいえ、常にシミュレーションをすることが有効とも限らない。たとえばAI(を搭載するロボット)が人間と協調動作をする必要がある場合などは、人間役をシミュレーションのなかに再現するのが困難なため、リアルの世界でトレーニングさせる方が効率が良いからだ。
i-Sim2Realは、人間の行動に関する単純なモデルを作り、それを出発点としてシミュレーション訓練とリアルでの動作試験を交互に実施させることで、人間の行動モデルの学習と動作の動作のルールをともに習得していく。こうすることで、試合を重ねるたびにロボットは人間の動きを学習し、自らの動作精度を高めプレイを洗練させていく。
Googleはそのわかりやすい成果のひとつとして、ロボットが人間のプレイヤーと卓球のラリーを340回も続ける様子を動画で公開した。また、このロボットはボールをさまざまな場所に打ち返すことができる。まだまだ「機械のような正確なプレイ」と呼ぶにはほど遠いが、相手の行動を見て裏をかくような戦略を教えはじめるには良い時期に来ているのかもしれない。
その足がかりというわけでもないだろうが、Googleはより目標に近い動作をさせるために、さまざまな位置から特定の場所にボールを返すといったことも試しにさせてみている。これはとにかく精緻なプレイをさせるのではなく、人間相手の相互作用を効率的に学ぶ方法を探すことを目的としている。
最終的には(そしてそう遠くない時期に)、トップレベルの卓球選手と張り合えるほどのラケット捌きを見せるロボットが現れるかもしれない。
蛇足だが、人間の卓球選手はフットワークも基本動作としてみっちり練習する。Googleのロボットはいまのところは(X-Yプロッター…というとたとえが古すぎるので)3Dプリンターのヘッド的な移動方法を採用しているが「卓球ロボット」として完璧を期するなら二本足のロボットにして、フットワークも仕込んでやってほしいものだ。
Source: Google Research
via: TechCrunch
しかし、Google AIはロボットに卓球をさせて人を追い越そうとしている。いまのところは、相手とのプレイに「協力的」だと強調されているが、開発が本気で行われているならば、いずれはプロの選手を相手にとんでもない戦いを演じるようになりそうな気がしないでもない。
i-Sim2Realと呼ばれるGoogle AIのプロジェクトは、動きが速く予測できない相手やボールの動きに合わせて動作するロボットシステムの開発を目的としたものだ。また、卓球は他のスポーツに比べて行動範囲が狭く、ルールや動作が複雑すぎず単純でもない、バランスの良いスポーツなのだとか。
Sim2Realという名称は、機械学習のモデルがバーチャルな環境やシミュレーションによって学習し、そのスキルを現実の世界に適用するAI構築方法を指している。これは実用的なレベルにまで何度も試行錯誤を繰り返す必要があるようなケースにおいて有効な方法だ。AIはシミュレーションのなかで時間のかかるトレーニングや経験を短時間で積み上げることができる。
とはいえ、常にシミュレーションをすることが有効とも限らない。たとえばAI(を搭載するロボット)が人間と協調動作をする必要がある場合などは、人間役をシミュレーションのなかに再現するのが困難なため、リアルの世界でトレーニングさせる方が効率が良いからだ。
i-Sim2Realは、人間の行動に関する単純なモデルを作り、それを出発点としてシミュレーション訓練とリアルでの動作試験を交互に実施させることで、人間の行動モデルの学習と動作の動作のルールをともに習得していく。こうすることで、試合を重ねるたびにロボットは人間の動きを学習し、自らの動作精度を高めプレイを洗練させていく。
Googleはそのわかりやすい成果のひとつとして、ロボットが人間のプレイヤーと卓球のラリーを340回も続ける様子を動画で公開した。また、このロボットはボールをさまざまな場所に打ち返すことができる。まだまだ「機械のような正確なプレイ」と呼ぶにはほど遠いが、相手の行動を見て裏をかくような戦略を教えはじめるには良い時期に来ているのかもしれない。
その足がかりというわけでもないだろうが、Googleはより目標に近い動作をさせるために、さまざまな位置から特定の場所にボールを返すといったことも試しにさせてみている。これはとにかく精緻なプレイをさせるのではなく、人間相手の相互作用を効率的に学ぶ方法を探すことを目的としている。
最終的には(そしてそう遠くない時期に)、トップレベルの卓球選手と張り合えるほどのラケット捌きを見せるロボットが現れるかもしれない。
蛇足だが、人間の卓球選手はフットワークも基本動作としてみっちり練習する。Googleのロボットはいまのところは(X-Yプロッター…というとたとえが古すぎるので)3Dプリンターのヘッド的な移動方法を採用しているが「卓球ロボット」として完璧を期するなら二本足のロボットにして、フットワークも仕込んでやってほしいものだ。
Source: Google Research
via: TechCrunch
- トピック
- AI
- Gadget Gate