学位論文要旨



No 111844
著者(漢字) 加藤,弘樹
著者(英字)
著者(カナ) カトウ,ヒロキ
標題(和) 階層型自己組織的ニューラルネットワークに関する研究
標題(洋)
報告番号 111844
報告番号 甲11844
学位授与日 1996.03.29
学位種別 課程博士
学位種類 博士(工学)
学位記番号 博工第3642号
研究科 工学系研究科
専攻 システム量子工学専攻
論文審査委員 主査: 東京大学 教授 近藤,駿介
 東京大学 教授 岩田,修一
 東京大学 助教授 大橋,弘忠
 東京大学 助教授 古田,一雄
 東京大学 助教授 吉村,忍
内容要旨

 Kohonenは基本的な競合学習アルゴリズムに、近傍系による協調学習を取り入れた形の学習則を提案した。これは2次元の信号空間(例えば網膜)から2次元のニューロン配列へ、信号空間の位相を保存したままマッピングができるのみならず、順序づけができるような任意の特徴空間から、2次元のニューロン配列への位相マッピングができる自己組織化地図(SOM)である。

 このモデルによって入力信号空間の位相は、ニューロンの配列という形で競合層にtopologicalにマッピングされる。すなわち、入力パターン間の類似が競合層のノードの近さの関係にうつされるのである。このネットワークにおいては、まず入力が競合層のすべてのノードに伝搬され、競合層で単一の勝者が決定される。競合は次式(1)に従う。

 

 ここで、Wrは位置ベクトルrのノードの重みベクトル、Xは入力ベクトルsは勝者ノードの位置ベクトルである。qはユークリッド距離をとる。さらに、個々のノードの持つ重みベクトルの更新(学習)が式(2)に従って行なわれる。

 

 (t)は学習係数、h(t,r,s)は側方作用を表わす関数である。

 

 

 これらの過程によって、入力信号集合がノードの重みベクトルとしてネットワーク上にマップされる。

 現在このモデルを効率化し、学習能力を強化させるための研究がさかんに行なわれているが、SOMの長所をそのまま保存しかつ学習能力を強化したモデルは、多く提案されてはいない。本論文では、このSOM学習アルゴリズムに基づいて、あらたにネットワークアーキテクチャを階層化し、ネットワークの規模を層に応じて変化させ、さらに信号伝搬を局所化させたモデル(LPHN)を提案する。

 このネットワークは上層にいくにつれて、ネットワークの規模(ノード数)が増大するようになっており、層間の信号伝搬は図1の様である。すなわち、隣との重なりを最小限にした局所伝搬となっている。ここでの信号伝搬とは、各階層を通して同一の入力信号の伝搬経路のことを指す。また、最下層への入力信号は層内の全ノードに対して伝搬されるものとしている。学習は下層から逐次的に行なわれる。つまり、下層のマッピングが収束した段階で上層にその重みベクトルが局所的にコピーされ、上層の学習が開始されるのである。学習が終了した下層のネットワークでは、入力信号に対して局所的な競合過程のみが行なわれ、勝者ノードのみが上層にその入力信号を伝搬する。従って、下層のネットワークは入力信号の伝搬を上層の適当な部分にいわばガイドする役割を持つことになる。

図1:LPHNに於ける層間の信号伝搬

 競合に用いられるノードnの評価関数qnはスケール成分を掛けた重み付きユークリッド距離である。

 

 学習は基本的に式(2)にしたがって行なわれるが、側方作用は敷居値をとして、

 

 としている。

 本研究ではLPHNを、移動ロボットによる未知空間の環境地図自動生成に応用し、その学習特性及び学習能力をSOMと比較するためにシミュレーションを行なった。以下にその概要を示す。

 1、移動ロボットは方位センサ、積算距離計、および図2に示したような等方性に距離センサ(ソナーセンサ)を用いてデータを採る。

 2、探索時は障害に接近するとランダムに方向を変えるものとする。

 3、移動ロボットは積算距離計と方位センサを用い座標を算出し、同時にソナーデータを合わせて閉じた未知空間を計測をする。

 4、計測が終了したら、ネットワークにデータをマッピングさせる。この際、座標データのスケールがソナーデータのスケールよりかなり大きくなるようにパラメータのスケーリングを行ない、それを用いてLPHNを組織化する。

 移動体ロボットによる探索の様子を図3に示す。灰色の部分は障害を表わし、小さい三角形でロボットの移動した軌跡を表示している。○はロボットがデータを採取した地点である。ネットワークシミュレータではロボットシミュレータによって採取したデータ(38次元)に、筆者の過去の研究に基づく手法で適当なスケーリングを施しネットワークに学習させる。

図表図2:移動ロボットとソナーセンサ / 図3:ロボットの探索の様子

 図4にネットワークの学習の様子を示す。ここではLPHNは3層からなるものを用い、各層のニューロン数は100、441、1849とし、全学習回数を37000回としている。タイトルバーに表示された数値は学習回数と階層を表わすものである。表示されているネットパターンの交点はニューロンを、リンクはそれらのニューロンがネットワーク上で最近接であることを表わしている。各々のニューロンはそれが保持している座標に基づいて位置づけられている。なお、ネットワークの学習に用いたパラメータの値は、i=1.0、f=0.005、iはノード数に依存、f=0.5としている。

 図5には、まったく同じ学習を単層SOMを用いて行なった結果(左)とLPHNを用いて行なった結果(中)が示されている。ここでは比較のためにSOMのニューロン数をLPHNの最上層のそれと等しい1849とし、学習回数もLPHNの全学習回数に等しい37000回としている。ネットワークの学習に用いたパラメータの値は、上記と同様でSOMではi=12である。さらに、ソナーデータが座標と対応して正確に学習されているかどうかを調べるために口で囲んだ点のソナーデータを計測しそれによって連想を行なうと●で示したニューロンが発火した。この2つが近ければ近いほど学習が正確に行なわれていたことになる。グラフ(右)は、ソナー情報の想起の様子である。ここでは縦軸にソナーの示す値(センサから壁までの距離)横軸に36個のソナーの方向(角度)を示している。折れ線は入力点口でのソナーデータの実測値、棒は●のニューロンが保持していたソナー情報を示している。

図表図4:LPHNによって生成されたマップ / 図5:SOMとLPHNによるマップの比較

 図6には上記の学習に関する学習曲線を示し、SOMとLPHNの学習の様子を比較している。それぞれのグラフには、座標成分(線形データ)とソナー成分(非線形データ)の2つが示されている。横軸は学習時間としてCPU時間を、縦軸は平均誤差をデータ分布の標準偏差で割った値を示している。尚、このシミュレーションはHP-735(HP-UX9.05)で行なっている。

 表1に学習時間の内訳を示す。ここでは学習時間と競合過程に要する時間の内訳を示している。

図表図6:SOM(左)とLPHN(右)の学習曲線 / 表1:マッピングに要する時間の内訳

 この結果次のことがわかった。

 ・筆者の過去の研究の結果によるスケーリング則によって、2つのモダリティー(座標とソナー)の間の写像関係に関する矛盾によるマップの歪みが解決する。

 ・距離及び方位センサーの誤差は、シミュレータによる想起テストの結果を見るかぎり大きな悪影響は及ぼさない。

 ・LPHNによるマップとSOMによるそれを比較すると、LPHNの方がdead nodeが少なく、そのためマップが広がり、信号分布をより忠実にマップしていることがわかる。ここでdead nodeとは、信号が発生しない点を重みベクトルとして獲得してしまったノードを指す。

 ・LPHNとSOMの学習曲線を比較した結果、LPHNの収束が極めて速いことがわかった。

 ・線形データと非線形データの学習精度を比較すると、両者とも非線形データの精度が線形データより悪いものの、LPHNの方がSOMより収束が良く、学習精度が高くなっていることがわかった。

 ・学習時間の短縮のみでなく想起過程においても計算時間が短縮できることがわかった。

審査要旨

 ニューラルネットワークに関する研究では、自己組織的学習機構のモデル化とその特性解明が重要な応用分野のひとつとなっている。そして、近年、大脳皮質で自己組織的に形成される情報の内部表現に関して様々な知見が得られているので、これらの知見を取り入れることによって、既存のモデルより飛躍的に進歩したモデルを提案できる可能性があり、多くの試みが報告されている。本論文は、こうした生理学的知見から得られる考察に基づき、自己組織的ニューラルネットワークアーキテクチャのひとつであるSOM(Self-Organizing Map)を基本とした新しい階層型アーキテクチャの提案を行い、その特性を明らかにした研究の成果をとりまとめているもので、8章から構成されている。

 第1章では本論文の構成を述べており、第2章では自己組織的ニューラルネットワーク研究全体に関する背景および基本的な枠組みについて考察した後、自己組織的ニューラルネットワークの代表的なアーキテクチャであるSOMに焦点を当てて、このアルゴリズムが持つ学習特性に関して議論している。

 第3章では、SOMが多次元信号を2次元ネットワークにマッピングする際の位相保存に関する規則性と入力信号分布の性質との関係を実験的に検討した結果を述べており、入力信号分布の分散(成分値のスケール)が成分間で異なる場合および信号分布にクラスタリングが存在する場合の規則性を明らかにしたとしている。

 第4章では、この研究で提案している階層型自己組織的ニューラルネットワークアーキテクチャの応用分野として、未知空間の探索ロボットによる環境地図作成課題を取り上げるとして、その背景、過去に提案されたモデルについて検討した結果を述べている。そして、従来一つの困難と指摘されてきた、ロボットの運動によって発生するデータの積算誤差が環境地図作成に与える影響をシミュレーションで評価し、移動ロボットにランダムに探索させれば、この積算誤差は十分小さい値に収束することがわかったとしている。

 第5章では、SOMの学習汎化能力を用いてこの積算誤差の影響を解決する手法の有効性を検証する目的でこの汎化能力を評価した結果を述べており、SOMは、線形的に変化するデータ成分に関しては十分な汎化能力が認められるものの、非線形的に変化するデータに関しては汎化能力が不十分であり、ネットワークのノード数を増加させても改善が見られないことが明らかになったとしている。

 第6章では、 第5章の結果を踏まえてSOMアーキテクチャの持つ特性と問題点に関して議論し、それらを改善する新たなアーキテクチャを導くために、生体の脳の発達論的なメカニズムに関する生理学的な側面からの考察を行ない、大脳皮質における情報の局所的伝搬特性に注目して、SOM学習アルゴリズムに基づいた局所的信号伝搬特性を内在する階層型自己組織的ニューラルネットワークアーキテクチャ(LPHN)を提案し、その特性を検討している。そして、その学習特性および学習能力を評価する目的でこのネットワークを第4章で述べた環境地図生成課題に応用し、SOMを用いてマッピングを行なった場合との比較を行なった結果、学習時間がSOMに比較して極めて短縮されることが明らかになったとしている。さらに、学習精度に関しても、LPHNは線形データおよび非線形データの双方に関してSOMを大幅に上回ること、学習時間に関する理論的評価でLPHNとSOMの差はノード数に関して指数関数的に増大することが示されたこと、SOMを発展させた既存のアルゴリズムと比較してもLPHNが様々な面で優れていること、なども明らかになったとしている。

 第7章では、大脳皮質視覚野に見られるカラム構造における受容野の階層的な形成過程を、工学的モデルである自己組織的ニューラルネットワークの学習アルゴリズムの階層化に応用する手法について検討し、SOM学習アルゴリズムの競合過程の評価関数におけるスケール成分を局所的信号伝搬を用いた学習によって獲得するアルゴリズムと、このスケール成分を階層的に処理することによって入力信号集合から受容野を自己組織的に獲得するアルゴリズムを考案したことを述べている。そして、それらをLPHNと階層的に組み合わせることによって多層自己組織的ニューラルネットワークを構成し、先に述べた移動ロボットによる環境識別に応用した結果、障害の位置と傾きの識別が可能になることがわかったとしている。

 以上のように、本論文は、SOMの学習特性を実験的に考察するとともに、大脳生理学的知見から得られる考察に基づいて、SOMを基本とした新たな階層型アーキテクチャと自己組織的学習アルゴリズムの提案を行ない、探索ロボットの環境地図作成課題に適用してそれらの学習能力の高さを確認しているもので、ニューラルネットワークに関する学術と自律ロボットの工学に有益な寄与をなしており、システム量子工学の進歩に貢献するところが大きい。よって本論文は博士(工学)の学位請求論文として合格と認められる。

UTokyo Repositoryリンク