学位論文要旨



No 211921
著者(漢字) 築根,秀男
著者(英字)
著者(カナ) ツクネ,ヒデオ
標題(和) 動的視覚情報処理に関する研究
標題(洋)
報告番号 211921
報告番号 乙11921
学位授与日 1994.09.22
学位種別 論文博士
学位種類 博士(工学)
学位記番号 第11921号
研究科 工学系研究科
専攻 電気工学専攻
論文審査委員 主査: 東京大学 教授 茅,陽一
 東京大学 教授 森下,巖
 東京大学 教授 高木,幹雄
 東京大学 教授 井上,博允
 東京大学 教授 原島,博
内容要旨

 知能を有する機械-ロボット-の研究は,外界を認識し行動情報を導き自律的に行動することのできる機能の実現が最終の目標である.外界を認識するセンシング手段のうちでも特に視覚機能は重要である.視覚情報処理の分野の研究は,信号処理,画像処理,コンピュータビジョン,人工知能,ロボティクス,特殊プロセッサ等の各側面から研究が行われてきており,膨大な成果が積み重ねられてきている.最近では,ロボットのための実時間型ビジョンの研究開発が精力的に行われている.ロボットの世界では,環境は常に動的に変化しており,ロボットの視覚機能はそれに対応することが要求され,動的視覚情報処理を可能とすることが必須となる.特に,(1)物体の運動解析,(2)ロボットの自己運動解析,および(3)ビジュアルフィードバックは,知的なロボットの備えていなければならない視覚機能であり,重要なロボットビジョンの研究分野を構成している.本論文では特にシステム化の観点から(3)ビジュアルフィードバックとそのための(1)物体の運動解析手法について論じる.

 ビジュアルフィードバックとは,視覚機能によって環境情報を取り込み,それによって現在のロボットの状態を判断して次に取るべき行動方策を決定する機能である.視覚機能は行動機能のために情報を収集するものであることは上述の通りであるが,逆に行動機能が視覚機能のために環境を変更することも問題解決のための有力な制御方策である.したがって単に行動機能のための視覚機能という一方的な関係ではなく,両者が協調して目的を果たす相補関係がうまく作動する必要があり,そのための視覚機能の構成法が必要となる.この意味で,ロボットは視覚機能を中心とする感覚機能と行動機能を集積し統合した感覚行動システムである.次に,一般にロボットの作業環境はロボット自身の作業および外的な要因によって動的に変化するため,変動する外界を認識して計測し環境モデルを構築・再構築する必要がある.特に,行動機能と協調することにより,積極的に物体を動かしながら,あるいは,視点を変更しながら認識を行う戦略を取るときには変動する外界への対応能力は必須となる.さらに,視覚機能は触覚機能等の他の感覚機能とは異なり,オンオフ情報を出力するスイッチ的な使い方から,認識等の高度な情報処理まで様々なレベルで処理を行う階層性を有する.そこで,視覚機能と行動機能の協調はこれらのレベルに応じて多様な形態をとることになる.本論文では,まず,以上の点を整理体系化して,ロボットのビジュアルフィードバックのための機能の構造とその構成法について論じる.

 ロボットが作業を行うための感覚器官と行動器官の協調関係を考察することにより機能の概念を提案した.基本機能が器官と作業を実現する情報処理機構で構成される.基本機能は基本感覚機能と基本行動機能の2種に区別され,新たな機能が一対の基本感覚機能と基本行動機能の組で定義される.新機能も感覚機能と行動機能に区別される.この操作を再帰的に繰り返して感覚機能-行動機能階層という構造が構築される.この構造は機能木と呼ばれる2進木の形をとり,木を構成する節の構造が与えられる.機能木は視覚機能の情報処理機構の階層性に基づくものである.機能木を用いてロボットを制御するアルゴリズムを導き,感覚行動システムである統合型ロボットの制御方式を提案した.

 ビジュアルフィードバックのための機能構造を実装するため,マニピュレータ,移動機構,視覚装置を有するコンパクトに統合された移動ロボットを開発した.ついで,行動と密結合が可能な移動ロボットの視覚情報処理について検討を加え,そのための2値画像処理方式を開発した.基本的なビジュアルフィードバックとして運動物体追跡と移動経路追従を行う基本機能を構成した.さらに,舞台上に散乱しているブロックを集める作業を実施するため,移動ロボットの感覚機能と行動機能の構造化を行い,機能木を構築した.機能木に対して制御アルゴリズムを適用して作業を実施しその有効性を確認した.これにより,感覚機能と行動機能を統合した感覚行動システムの制御方式と動的視覚情報処理の構造を明かにした.

 ビジュアルフィードバックのための変動する外界への対応能力について検討を進めた.環境の変動が十分緩やかであるならば,視覚によって認識すべきシーンは静的であると考えてよい.したがってある時間に入力した1枚の画像を解析することによりロボットの制御に必要な情報を得ることが可能である.ロボットの行動途中の要所要所で繰り返しこれを行えば支障がないものと考えられる.しかし,環境が速やかに変化していたり,そもそも対象物の動きを知りたい場合は,画像から直接,運動情報を引き出すことが必要になる.そこで,時間的に連続する画像列を処理する動画像処理の方法を確立することにより,これが可能となる.また,動画像は単に運動情報だけでなく物体に関する3次元情報をも含んでおり,これを抽出することによって新しい3次元視覚情報処理の方法が提案できる可能性がある.そこで,本論文では,オプティカルフローと呼ばれる画像上の2次元速度ベクトル場を解析する方法を提案している.

 オプティカルフローを用いる動画像処理の準備として,画像を前処理した結果得られる画像ベクトル場の扱いにつき,画像中の楕円形状の検出を対象として検討を加えた.複数の楕円形状が相互に交錯して存在しても検出可能なものとするため,Hough変換を適用する.また,楕円の境界を構成するエッジのうち,互いに平行なエッジベクトルが楕円の中心を示唆することに着目する.これを用いて,Hough変換のパラメータ空間を次数の低い部分パラメータ空間の積に分解することにより,実用的な複数の楕円形状の検出法を提案した.

 楕円形状検出手法を拡張して,回転運動のオプティカルフローのHough変換による解析方法の提案を行った.正射影を仮定している.平行なオプティカルフローベクトル群が画面上に射影された回転軸を示唆することに着目する.これを用いてHough変換のパラメータ空間を次数の低い部分パラメータ空間の積に分解することにより,複数の相互に交錯している回転運動のオプティカルフローの分離抽出とそれらのパラメータを推定する方法を確立した.

 正射影仮定の下では,一般剛体運動のオプティカルフローは回転運動のオプティカルフローと同型であることを示した.これを用いて回転運動のオプティカルフローの解析法を拡張し,複数の一般剛体運動のオプティカルフローの分離抽出とそれらのパラメータ推定を可能とした.

 単一のオプティカルフローだけからでは3次元運動によって引き起こされる3次元速度ベクトル場は復元できない.そこで,3視点から観測した剛体運動のオプティカルフローを組み合わせて解析することにより,3次元速度ベクトル場と対象物の深さ情報を復元する3視点ステレオ動画像法を提案した.一般剛体運動のオプティカルフローは回転運動のオプティカルフローと同型であることを利用し,制約付非線形最適化問題に持ち込む.この際に,3視点間の幾何学的関係を拘束条件として解の整合性を確保している.

 3視点から観測して分離抽出した複数の一般剛体運動のオプティカルフローの対応付けを行った.各視点間のオプティカルフロー同士の対応付けの良さを,視点間の幾何学的関係との整合性の良さで評価し,対応付けを決定する.対応付けられたオプティカルフローに対して3視点ステレオ動画像法を適用し,3視点から観測した複数の一般剛体運動について,元の運動と対象物体の深さ情報を復元する方法を提案した.

 以上のように,本論文では動的視覚情報処理に関して,感覚機能,特に,視覚機能と行動機能との協調方法,および,動画像から運動と物体の3次元情報を獲得する方法,の研究を行った.その結果,感覚機能と行動機能の協調関係の定式化を行い,その有効性を統合型ロボットの作業に適用することで確認した.次に,画像ベクトル場の処理方法を提案し,オプティカルフローのような画像ベクトル場を記述し個々のオプティカルフローを分離抽出する方法を確立した.さらに,3視点から観測した複数の剛体運動について運動によって生じる3次元速度ベクトル場と深か情報を復元する方法を確立した.これらを通じて動的視覚視覚処理情報処理の基礎的な問題点とその解決を図った.

 マイクロエレクトロニクスの発展により計算機能力の飛躍的向上が約束されている現在,多量の動画像情報を現実的なコストで処理可能となりつつあり,動的な環境に適応しつつ行動するロボットの基礎技術として本論文の意義は大きいものと考えられる.

審査要旨

 本論文は、動的視覚情報処理に関する研究と題し、2部6章よりなる。外界を認識し自律的に行動出来るロボットは、ロボット研究の大きな目標であるが、そこでは認識の対象が絶えず変化するため、それに追従して対象を認識していく動的な視覚情報処理が必須となる。本論文はこの問題に焦点をあわせ、新しい手法を提案すると共にその特性を理論的かつ実験的に検討したものである。

 第1章は序論であって、ここではこれ迄の関連研究の状況とその中での本研究の位置づけが行なわれている。

 第2章以下が本論であって、2章と3章が第1部を構成し、ここでは視覚機能と行動機能の融合について研究が行なわれている。まず、第2章では、感覚機能と行動機能の協調について、それぞれの機能を定義しそれを組み合わせ機能木として構成する体系を提案している。ロボットは、この両機能の交互の利用により具体的行動を行なうことが出来る。すなわちこれにより外界により生ずる物理制約、作業目的により生ずる目的制約下での認識、そして行動が可能となる。

 第3章では、上記の機能を備えた移動式ハンドリングロボットの具体的な構築について説明している。これは、マニピュレータ・移動系・視覚系・触覚系の各器官を持つ。本章ではまずその基本行動機能について簡単に述べたあと、基本感覚機能について、高速性・論理性・階層性の3つの条件の重要性と、それを満たすような画像処理を平面演算子系の形で表現している。更に、行動・感覚両機能を合成し、具体的にロボットを移動させる方式について、具体的にそのようなロボットを構成、実験を行なって、球の追跡・補捉などの具体的行動に良好な成果をあげたことを述べている。このロボットは、移動ロボットの中でも比較的早期の段階に高性能を示したものとしてよく知られている。

 第4章以下の第2部は、問題を特にオプティカルフロー(以下OFと略する)を用いた3次元運動する対象の認識に中心的に向けられている。まず、第4章では、画像ベクトルの解析手法を説明している。すなわち、通常の機械部品の多くが楕円形状を持つことを前提に、二次元画像の明暗からまずエッジをベクトルの形で抽出し、ついでそれから画像内の複数楕円物体のパラメータ群を推定する。ここでは、複数の対象の場合起こり得るいくつかの誤りの可能性を考慮、それを回避するアルゴリズムを作成している。そして、その方式を具体的な機械部品画像に適用し、それが良好に動作することを示している。

 更に本章では、このようなエッジベクトルから、動く対象の動きを記述するOFを求めることを試みている。すなわち、ここでは回転する物体を想定し、その回転OFを求めた上でこれをいくつかの部分OFに分解する方式を提案している。その上で、このような処理方式の妥当性を計算機シミュレーションで実証している。

 しかし、こうした単一視点からのOFの情報のみでは、OFが誤差を多く含むため、対象物体の動き・形状の情報を正確に得ることは容易でない。それに対して第5章では、複数の視点からのステレオ画像を取り上げ、それより得られるOF全体を画像間で比較する形で解析を行なっている。そして、OFの情報の冗長性を利用することによって、推定精度を向上させることを狙っている。すなわち、視点間の幾何学的関係を拘束条件とした非線形最適化問題をとくことにより、対象の3次元速度ベクトルを推定している。そして、この手法を、具体的にいくつかの回転運動をする物体・機械部品に適用して、その有効性を確かめている。

 第6章は結論であって、これまでの内容をとりまとめている。

 以上要するに本論文は、知能ロボットにおける動的な視覚情報処理について、行動機能との協調を図ったシステムを確立すると共に、複数視点からのOFを利用した対象行動ベクトルの推定手法を開発し、その有効性を実験的に確認したもので、ロボット工学・情報処理工学上寄与するところがきわめて大きい。

 よって、本論文は博士(工学)の学位請求論文として合格と認められる。

UTokyo Repositoryリンク