内容要旨 | | 知能を有する機械-ロボット-の研究は,外界を認識し行動情報を導き自律的に行動することのできる機能の実現が最終の目標である.外界を認識するセンシング手段のうちでも特に視覚機能は重要である.視覚情報処理の分野の研究は,信号処理,画像処理,コンピュータビジョン,人工知能,ロボティクス,特殊プロセッサ等の各側面から研究が行われてきており,膨大な成果が積み重ねられてきている.最近では,ロボットのための実時間型ビジョンの研究開発が精力的に行われている.ロボットの世界では,環境は常に動的に変化しており,ロボットの視覚機能はそれに対応することが要求され,動的視覚情報処理を可能とすることが必須となる.特に,(1)物体の運動解析,(2)ロボットの自己運動解析,および(3)ビジュアルフィードバックは,知的なロボットの備えていなければならない視覚機能であり,重要なロボットビジョンの研究分野を構成している.本論文では特にシステム化の観点から(3)ビジュアルフィードバックとそのための(1)物体の運動解析手法について論じる. ビジュアルフィードバックとは,視覚機能によって環境情報を取り込み,それによって現在のロボットの状態を判断して次に取るべき行動方策を決定する機能である.視覚機能は行動機能のために情報を収集するものであることは上述の通りであるが,逆に行動機能が視覚機能のために環境を変更することも問題解決のための有力な制御方策である.したがって単に行動機能のための視覚機能という一方的な関係ではなく,両者が協調して目的を果たす相補関係がうまく作動する必要があり,そのための視覚機能の構成法が必要となる.この意味で,ロボットは視覚機能を中心とする感覚機能と行動機能を集積し統合した感覚行動システムである.次に,一般にロボットの作業環境はロボット自身の作業および外的な要因によって動的に変化するため,変動する外界を認識して計測し環境モデルを構築・再構築する必要がある.特に,行動機能と協調することにより,積極的に物体を動かしながら,あるいは,視点を変更しながら認識を行う戦略を取るときには変動する外界への対応能力は必須となる.さらに,視覚機能は触覚機能等の他の感覚機能とは異なり,オンオフ情報を出力するスイッチ的な使い方から,認識等の高度な情報処理まで様々なレベルで処理を行う階層性を有する.そこで,視覚機能と行動機能の協調はこれらのレベルに応じて多様な形態をとることになる.本論文では,まず,以上の点を整理体系化して,ロボットのビジュアルフィードバックのための機能の構造とその構成法について論じる. ロボットが作業を行うための感覚器官と行動器官の協調関係を考察することにより機能の概念を提案した.基本機能が器官と作業を実現する情報処理機構で構成される.基本機能は基本感覚機能と基本行動機能の2種に区別され,新たな機能が一対の基本感覚機能と基本行動機能の組で定義される.新機能も感覚機能と行動機能に区別される.この操作を再帰的に繰り返して感覚機能-行動機能階層という構造が構築される.この構造は機能木と呼ばれる2進木の形をとり,木を構成する節の構造が与えられる.機能木は視覚機能の情報処理機構の階層性に基づくものである.機能木を用いてロボットを制御するアルゴリズムを導き,感覚行動システムである統合型ロボットの制御方式を提案した. ビジュアルフィードバックのための機能構造を実装するため,マニピュレータ,移動機構,視覚装置を有するコンパクトに統合された移動ロボットを開発した.ついで,行動と密結合が可能な移動ロボットの視覚情報処理について検討を加え,そのための2値画像処理方式を開発した.基本的なビジュアルフィードバックとして運動物体追跡と移動経路追従を行う基本機能を構成した.さらに,舞台上に散乱しているブロックを集める作業を実施するため,移動ロボットの感覚機能と行動機能の構造化を行い,機能木を構築した.機能木に対して制御アルゴリズムを適用して作業を実施しその有効性を確認した.これにより,感覚機能と行動機能を統合した感覚行動システムの制御方式と動的視覚情報処理の構造を明かにした. ビジュアルフィードバックのための変動する外界への対応能力について検討を進めた.環境の変動が十分緩やかであるならば,視覚によって認識すべきシーンは静的であると考えてよい.したがってある時間に入力した1枚の画像を解析することによりロボットの制御に必要な情報を得ることが可能である.ロボットの行動途中の要所要所で繰り返しこれを行えば支障がないものと考えられる.しかし,環境が速やかに変化していたり,そもそも対象物の動きを知りたい場合は,画像から直接,運動情報を引き出すことが必要になる.そこで,時間的に連続する画像列を処理する動画像処理の方法を確立することにより,これが可能となる.また,動画像は単に運動情報だけでなく物体に関する3次元情報をも含んでおり,これを抽出することによって新しい3次元視覚情報処理の方法が提案できる可能性がある.そこで,本論文では,オプティカルフローと呼ばれる画像上の2次元速度ベクトル場を解析する方法を提案している. オプティカルフローを用いる動画像処理の準備として,画像を前処理した結果得られる画像ベクトル場の扱いにつき,画像中の楕円形状の検出を対象として検討を加えた.複数の楕円形状が相互に交錯して存在しても検出可能なものとするため,Hough変換を適用する.また,楕円の境界を構成するエッジのうち,互いに平行なエッジベクトルが楕円の中心を示唆することに着目する.これを用いて,Hough変換のパラメータ空間を次数の低い部分パラメータ空間の積に分解することにより,実用的な複数の楕円形状の検出法を提案した. 楕円形状検出手法を拡張して,回転運動のオプティカルフローのHough変換による解析方法の提案を行った.正射影を仮定している.平行なオプティカルフローベクトル群が画面上に射影された回転軸を示唆することに着目する.これを用いてHough変換のパラメータ空間を次数の低い部分パラメータ空間の積に分解することにより,複数の相互に交錯している回転運動のオプティカルフローの分離抽出とそれらのパラメータを推定する方法を確立した. 正射影仮定の下では,一般剛体運動のオプティカルフローは回転運動のオプティカルフローと同型であることを示した.これを用いて回転運動のオプティカルフローの解析法を拡張し,複数の一般剛体運動のオプティカルフローの分離抽出とそれらのパラメータ推定を可能とした. 単一のオプティカルフローだけからでは3次元運動によって引き起こされる3次元速度ベクトル場は復元できない.そこで,3視点から観測した剛体運動のオプティカルフローを組み合わせて解析することにより,3次元速度ベクトル場と対象物の深さ情報を復元する3視点ステレオ動画像法を提案した.一般剛体運動のオプティカルフローは回転運動のオプティカルフローと同型であることを利用し,制約付非線形最適化問題に持ち込む.この際に,3視点間の幾何学的関係を拘束条件として解の整合性を確保している. 3視点から観測して分離抽出した複数の一般剛体運動のオプティカルフローの対応付けを行った.各視点間のオプティカルフロー同士の対応付けの良さを,視点間の幾何学的関係との整合性の良さで評価し,対応付けを決定する.対応付けられたオプティカルフローに対して3視点ステレオ動画像法を適用し,3視点から観測した複数の一般剛体運動について,元の運動と対象物体の深さ情報を復元する方法を提案した. 以上のように,本論文では動的視覚情報処理に関して,感覚機能,特に,視覚機能と行動機能との協調方法,および,動画像から運動と物体の3次元情報を獲得する方法,の研究を行った.その結果,感覚機能と行動機能の協調関係の定式化を行い,その有効性を統合型ロボットの作業に適用することで確認した.次に,画像ベクトル場の処理方法を提案し,オプティカルフローのような画像ベクトル場を記述し個々のオプティカルフローを分離抽出する方法を確立した.さらに,3視点から観測した複数の剛体運動について運動によって生じる3次元速度ベクトル場と深か情報を復元する方法を確立した.これらを通じて動的視覚視覚処理情報処理の基礎的な問題点とその解決を図った. マイクロエレクトロニクスの発展により計算機能力の飛躍的向上が約束されている現在,多量の動画像情報を現実的なコストで処理可能となりつつあり,動的な環境に適応しつつ行動するロボットの基礎技術として本論文の意義は大きいものと考えられる. |