学位論文要旨



No 123932
著者(漢字) ぐーとまん,うるす みはえる
著者(英字)
著者(カナ) グートマン,ウルス ミハエル
標題(和) 動的ニューラルシステムによるデータ表現のための学習法則
標題(洋) Learning Rules for Data Representation with Dynamical Neural Systems
報告番号 123932
報告番号 甲23932
学位授与日 2008.03.24
学位種別 課程博士
学位種類 博士(情報理工学)
学位記番号 博情第177号
研究科 情報理工学系研究科
専攻 数理情報学専攻
論文審査委員 主査: 東京大学 教授 合原,一幸
 東京大学 教授 杉原,正顯
 東京大学 准教授 鈴木,秀幸
 東京大学 准教授 河野,崇
 東京大学 講師 増田,直紀
内容要旨 要旨を表示する

Neural integration, and the neural representation of sensory input, remains an incompletely understood topic in neuroscience. We show here first that the theoretical approach of modeling neural integration by means of data representation allowed to gain some insight into the principles and mechanisms of neural integration. Data representation is a mathematical method to find a change of basis for the input which matches the structure of the data.

The encoding transforms which are in existing data representation methods used to calculate the new representation of the input with respect to the new basis did however either not include a time structure, or they were acausal. If neural integration is modeled by means of data representation, the input should be encoded into neural activity by means of a valid neuron model. We point then out that the encoding transforms of existing data representation methods correspond to rather abstract neuron models, and that the modeling of neural integration by means of data representation could be improved by using dynamical neural systems for the encoding.

We derive then learning rules for data representation with dynamical neural systems. We focus on neural systems which are composed of integrators. The integrators signal by means of spikes. We use two models for the integrators. In a first model, the neuron model is a formal spiking neuron in the sense that the action potentials are not modeled. In a second model, the neuron model is a real spiking neuron in the sense that the upstroke of the action potential is also modeled. The derived learning rules are for data representation with a single neuron, and in the case of the formal spiking neuron, also for data representation with a population of neurons. In that case, the neurons may have lateral connections.

The application of the learning rules to represent an input signal by means of a population of neurons illustrates the usefulness of the derived learning rules for the study of neural integration and representation: After learning, the input was accurately represented by the population of neurons, and the learning rules led to self-organized neural differentiation.

審査要旨 要旨を表示する

外界からの情報は, 各感覚器官に入力され, 電気信号へ変換される. この時, 変換された各電気信号は, 感覚器官への入力情報を分割したものとなるが, 動物は適切な行動をとるために, その分割された情報を脳において統合して認知する必要がある. したがって, ニューラルシステムにおける感覚入力の統合問題は, 脳科学において大変重要な課題である.

この統合問題に関して, 先行研究では, データ表現に基づく理論的アプローチがなされてきた. データ表現では, 神経活動から入力を再構築できるように, 入力から神経活動への符号化が行われる. このデータ表現は, ニューラルシステムにおける情報統合を理解するための有効なモデルと考えられている. しかしながら, このモデルの有効性は, 符号化法の神経科学的妥当性に依存する. この点に関して, ニューラルシステムにおける情報統合に適用された既存のデータ表現の手法では, その符号器としてたいへん抽象的な神経細胞のモデルを用いている. したがって, より現実的なモデルとしての動的なニューラルシステムモデルを符号器とすることにより, データ表現によるニューラルシステムにおける情報統合のモデル化を改良する余地がある. そこで本論文では, 符号器として動的なニューラルシステムモデルを用いたデータ表現に関する, 学習法則を提案する.

本論文は"Learning Rules for Data Representation with Dynamical Neural Systems" (「和文題目:動的ニューラルシステムによるデータ表現のための学習法則」)と題し,8 章より成る.

第 1 章では,「序論」(Introduction)と題し, 研究のモチベーションに関する説明と本論の構成をまとめている.

第 2 章では,「数理的背景」(Mathematics-Background)と題し, 既存のデータ表現手法に関する背景を述べている. まず, データ表現と基底の変化を関連付けている. ここでは, よいデータ表現を実現するために, データに依存して基底を変化させることの重要性が指摘されている. そして, データ表現のための従来の学習アルゴリズムが示されている. これらの学習アルゴリズムは, データ表現問題を最適化問題として定式化し, 反復的にその評価関数の最適化を繰り返す過程である.

第 3 章では, 「神経科学的背景」(Neuroscience-Background)と題し, 本論文と関係した神経科学の背景に関して述べている. まず, 神経の信号伝達特性のモデル化に関する説明をしている. 次に神経信号伝達の従来モデルを概説し, 信号伝達の際のエネルギー消費の主な物理的要因に関して言及している. そして, 神経マップを導入し, その神経マップによるニューラルシステムにおける情報統合の視覚化を説明し, さらにシナプス可塑性と神経マップの発達の関係を概説している.

第 4 章では,「先行研究と本研究の課題」(Previous Work and Research Questions)と題し, まず, データ表現がニューラルシステムにおける情報統合のモデルとしてどのように関わるかを説明している. 次に, 先行研究において, 第 2 章で議論したデータ表現手法により, いかにニューラルシステムにおける情報統合を理解するかを概説している. このことより, データ表現が, ニューラルシステムにおける情報統合の優れたモデルとなることを示している. また, ニューラルシステムにおける情報統合と表象について, より深く理解するための議論を進めている. さらに, 第3章の神経の信号伝達に関するモデルと, 第2章のデータ表現法による信号変換の比較により, 既存のデータ表現法は抽象的な神経細胞モデルを用いていることを示している. そこで, より動的な神経モデルを用いたデータ表現法が, ニューラルシステムにおける情報統合のより質の高いモデルとなるという議論を展開している.

第 5 章では,「単一インテグレーターニューロンによるデータ表現」(Data Representation with a Single Integrator Neuron)と題し, 単一単安定インテグレーターニューロンモデルを用いた, データ表現とその学習法則を議論している. 単一単安定インテグレーターニューロンモデルは, 第3章で紹介したスパイキングニューロンの形式的モデルである. 学習法則は, データ表現の問題を最適化問題で定式化することにより得られる. さらに, このモデルでは, 第3章で言及した発火によるエネルギー消費も考慮に入れている. 数値実験により, この学習法則の適用性とエネルギー消費モデルの学習法則への影響を説明している.

第 6 章では,「マルチインテグレーターニューロンによるデータ表現」(Data Representation with Multiple Integrator Neurons)と題し, 前章の単一ニューロンモデルを集団モデルに拡張した場合について検討している. ここでは, ニューロン間に結合のない場合と結合のある場合に関する学習法則を導出し, その適用性を数値計算で示している. 入力信号は, ニューロン群の集団的活動により正確に表現され, 学習法則はニューロン群に自己組織的な分化をもたらすことが明らかにされている.

第7章では,「標準的インテグレーターの場合」(The Case of a Canonical Integrator)と題し, 単一ニューロンモデルを, 第 5 章で用いた形式的なスパイキングニューロンモデルから, 標準的なインテグレーターニューロン, つまり2次の積分発火型ニューロンモデルに置き換えて議論している. この標準的インテグレーターモデルに関しても, データ表現とその学習法則を検討し, 第5章の結果と比較している.

第 8 章では,「結論」(Conclusions)と題し, 以上の結果に対するまとめと議論を行っている.

以上を要するに, 本論文はデータ表現に関して, 動的なニューラルシステムを符号器としたデータ表現のための学習法則を提案し, さらに先行研究と比較して, その数理的および神経科学的意味での重要性を明らかにしたものであり, ニューラルシステムにおける情報表現の理論的研究への新たな道を開くものである. これは数理情報学上貢献するところが大きい.

よって本論文は博士(情報理工学)の学位請求論文として合格と認められる.

UTokyo Repositoryリンク