コンピュータ技術や通信技術の発展に伴い、GISについても2次元から3次元へ、室内における固定端末での利用から屋外における携帯端末への利用へというトレンドが明確になってきた。その際、利用者の位置・方向の自動特定技術(ここではこれをポジショニング技術と呼ぶ。)は最も重要な要素の一つである。位置の自動特定が可能になることで、利用者に移動経路情報を与えることや、利用者周辺の施設に関する情報を提供することなどが可能になる。また、ポジショニングの精度をさらに向上させることができれば、3次元空間データと組み合わせることにより、AR(Augmented Realiy:拡張現実感)技術を利用した新しいユーザインターフェースを実現することも可能になる。 ポジショニング技術自体は、古典的には測量技術に見られるように、ある特定の基準点からの距離や方向を計測する技術が主であり、きわめて多様である。しかし、都市・地域において社会的なインフラとして利用しようとすると、利用可能な範囲の広さや、利用者が携行すべき機器の大きさ・価格、利用の手軽さ等多くの制約がある。その結果、これまで開発されてきたポジショニング技術はGPSを中心としたものである。GPSについては、都市においてはビルの影など利用できない地点が存在することから、それらを補完するための工夫が重要となる。自動車ナビゲーションにおいては、電子コンパスや車速エンコーダなどの利用、道路ネットワークとの自動照合(マップマッチング)などにより、実用上ほぼ十分な精度を達成しており、幅広く利用されている。しかし、その手法を車輪を持たない一般の歩行者に対してもそのまま適用することは困難である。しかも歩行者は地下街やビル内など、GPSが明らかに利用できない空間を多く利用することから、GPSの補完方法の重要性が一層大きくなる。また、歩行者は注視方向を頻繁に変えるため、単なる位置決定だけではなく、方向決定技術の比重が大きくなる。最近では、PHSや携帯電話を利用したポジショニング技術が開発されてきており、アンテナのある限り室内や地下空間における位置決めも可能になっている。しかし、位置精度は数十メートルより低く、また方向を決めることができないため、それらを補完する方法が必要である。 GPSによるポジショニングを補完する手法として画像解析による方法がある。画像解析による方法は、ある地点から得られた画像を利用して、撮影時の位置と方向を推定するものであり、適切な外部参照点さえあれば、理論的には室内、屋内を問わず利用でき、精度も期待できる。事実、ロボットのナビゲーションなどを目的として、室内環境での応用事例も少なくない。しかし、室内では取得されるシーンの内容は比較的単純であり、その手法をそのままでは屋外の複雑なシーンに適用できないと考えられる。また、屋外では補助的にGPSなどの利用が可能であり、適切な組み合わせ手法に関する検討も必要である。さらに取得した画像を利用することでAR(拡張現実感)に基づくGISインターフェースを実現することも容易となる。 そこで本論文では都市域での利用を念頭に、画像を利用したポジショニングシステムを開発し、その応用としてAR(拡張現実感)を利用したGISインターフェースを実現することを試みる。提案システムでは、屋外において利用者はCCDカメラを利用して画像を連続的に取得する。GPSが利用可能な地点においてはその情報を利用し、利用できない地点において、画像情報とジャイロ情報(角度変化情報)を組み合わせ、さらに3次元地図データにマッチングさせることにより、位置・方向を高精度にかつ連続的に計測する手法を開発した。(図1参照) 図1.高精度位置決めシステムの構成と概念図. 具体的には、以下のようなプロセスにより、連続的なポジショニングを可能にする(図2参照)。 図2.連続画像を使って絶対測位法と相対測位法の原理図. 1)あらかじめ取得された画像について、直線エッジを抽出し、同時に撮影位置と方向を計測し、3次元GISデータベースに登録しておく。その際、建物の輪郭線などの3次元空間データと直線エッジが重なるようにしておく。 2)GPSの受信可能な地点から利用者が移動を開始する。スタート地点との位置はDGPSを利用することによって、3次元的に1m程度の精度で決定されると考えてよい。まずその場で画像を取得し、直線エッジを抽出する。次にGPSから得られる位置情報と電子コンパスから得られる方位情報を利用して、周辺に撮影位置・角度の記録されている直線エッジ画像(通常の画像から直線エッジを抽出した画像)が登録されていないかを検索する。登録されている場合には、その直線エッジ画像と、現場で撮影された画像から作成された直線エッジ画像について、直線エッジ相互のマッチングを行い、画像撮影位置と方位(利用者の位置・方向)をより高精度に推定する。 3)利用者の移動に伴って次に取得された画像について、直線エッジを抽出し、最初に取得された直線エッジ画像との間で直線エッジマッチングを行う。そのマッチング結果を利用して、取得された画像と最初の画像との間の相対的な位置関係を決めるのと同時に、3次元空間データ中の直線データとの対応関係も決定する。その対応関係を利用して、取得画像の位置、方位を決定する。 4)以上の過程を繰り返すことにより、連続的に利用者の位置・方位を決定する。 5)利用者がスタートする地点の周辺、あるいは移動経路に上に、あらかじめ登録された画像がない場合には、取得される画像間の直線エッジマッチングだけを行い、画像相互の相対的な位置関係だけを求める。この場合、相対的な位置関係を絶対的な位置関係に直すためには、画像を取得した2地点間の距離が必要になる。その距離を求めるために、小型の加速度計を利用して、利用者の移動距離を計測する手法を補助的に開発した。スタート時に得られるGPSからの位置計測値に、求められた2画像間の位置関係を加えることで、利用者の位置・方位を決める。 以上の過程において、異なる画像における直線エッジをできるだけ確実にマッチングすることが重要になる。この点に関して、本論文は以下のような手法を開発した。 1)エッジの特徴を記述する物理量としてエッジの方向だけでなくエッジ周辺のテクスチャを利用し、ミスマッチを減少させる。 2)画像間の撮影方向の変化をジャイロにより、また移動量を加速度計により計測し、それらの計測値を画像マッチングの際の初期値として利用する。 以上のような方法により、利用者の位置・方向を連続的に決定することを可能とした。ただ、現在のシステムではマッチングから位置・方向の決定までに数秒を要するため、歩行速度で移動しながらのリアルタイムなポジショニングを行うことはできない。しかし、よりハイスペックのハードウェアの利用などにより、リアルタイム化することができると考えられる。また、屋外実験により、さまざまな景観を有する市街地において上記のシステムが1〜2mの精度で位置決めを可能なことが示された。 さらに、このようにして決定された位置・方位情報を利用して、3次元空間データの表示画像と実写画像を重ね合わせることで、実写画像を利用して3次元GISデータへアクセスできるシステム(AR(拡張現実感)を利用したインターフェースシステム)を実現した。これに関しても屋外実験により有効性の確認を行った。また、本研究で開発されたポジショニングシステムは、位置・方位を画像データと合わせて取得できることから、画像からの3次元空間データの計測等も可能である。また、パーソナルナビゲーションばかりでなく、災害時の緊急調査や、社会基盤施設の点検作業などにも利用できると期待される。 |