HOME > 研究活動・産学官連携 > ネットジャーナル > ネットジャーナル53

ネットジャーナル53

ロボットが周囲の景色から自分の位置を推定
景観の特徴点を自ら抽出・比較する手法の開発

博士(工学) 山本 雅人

山本 ⼆つめのテーマは人間の理解に関した研究テーマである「⾃⼰位置推定」です。 ロボットを自律的に動かすには自分の位置を正確に知らなければなりません。あらかじめマップが与えられていたり、対象物との距離が測れるセンサなどがあれば比較的簡単ですが、例えば災害が起きて建物の形が変わっていたり、GPSが使えない屋内などではロボットが自分で推定しなくてはなりません。

本研究で取り組んでいるのは、人間が周囲の景色を見て自分の位置を知るように、カメラを搭載したロボットが周囲の景色を撮影し、そこから自分の位置を推定するディープラーニング手法です(解説2)。

マインクラフトというゲーム環境の中に単眼カメラを搭載したロボットを置き、撮影しながら自分がどこにいるかを推定します。ロボットには、あらかじめ見えてる角度と地点を結びつけた座標をいくつか教えておきますが、移動後の画像との相違点を抽出し、そこから自分の位置を推定する方法はディープラーニングで学んでいきます。従来は「この景色が見えたらここ」という知識も教えなければなりませんでしたが、ディープラーニングでは正解の位置をいくつか教えておけば、場所が変わってもそこに結びつく特徴を自分で見つけだすことができます。しかし、ロボットが景色の中の何を特徴として捉えているかは私たちにはわかりません。そこがAIの特性なのです。

マインクラフトの環境での検証を行いました。移動ロボットに正解の座標をいくつか与えたのち、⾃分で撮影 した数枚の写真を⼿がかりに⾃⼰位置推定します。検証の結果、最初の⼀枚では性能が落ちるのですが、2枚⽬以降では誤差が徐々に下がって、精度が上がっているのがわかりました。

ページの先頭へ