映像情報メディア学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2019-02-09 13:45
複数人や物によって形成される空間的な間の意味を解釈しながら経路生成を行う自律移動ロボット
卜 憲輝中村友昭金子正秀電通大
抄録 (和) まえがき
近年,ロボットの研究・開発が盛んに行われている,中でも移動ロボットは自身の周囲環境を把握して人や障害物に衝突しないような経路を生成して移動を行う。
日常生活空間において人間と共存し、人間の社会空間を尊重しながら行動するようなロボットにおいては、部屋や廊下の形状や障害物を認識するだけでなく、周囲の人物の個人空間及び複数人や物によって形成される空間的な間(ま)を考慮し、自らの行動形態、移動経路を自律的に決めていく機能が必要となる。
黒坂ら[1]は動的環境における、移動障害物の移動量の曖昧性を考慮し、時空間での移動障害物を斜円錐台モデルとして表している。斜円錐台の内部のサンプリング確率を変化させることで,動的障害物から離れた経路が,より生成されやすくする手法を提案した。中村ら[2]は時空間 RRT とサンプリング阻害モデルを用い、オクルージョン領域などの衝突危険範囲にサンプリングを阻害する場所を追加し、また、混雑している場合には、サンプリング阻害を行う確率を低下させ、経路を生成しやすくする手法を提案した。しかし、これらの手法は単純に移動障害物の移動予測を行っているため、個人空間をあまり考慮しておらず、近くの人に不快感や不安感を与える危険性がある。細田ら[3]は,2次元移動空間内でのロボットと複数の移動障害物との衝突回避において、パーソナルスペースモデルを円として定義しているが、これでは簡単すぎ、人間の社会的属性とは一致しない。これらの研究では、環境内の人と人、人と物の関係性が考慮されていない。この場合、グループの会話を中断させ、他人の活動を妨害する可能性もある。
本論文では、自律移動ロボットにおいて、複数人のグループや物によって形成される様々な空間的な間(ま)の意味を解釈しながら経路生成を行う手法を提案する。人の個人空間を考慮する場合、個人空間を避けようとすると混雑時には経路が生成しにくくなる。これに対応するため、混雑度によって個人空間の大きさを自動的に変化させ、経路を生成しやすくすることにより、ロボットが停止してしまうことを起きにくくする。また、人と人の関係性をグループとして認識するだけではなく、特に人と物の関係性のモデルも提案する。以上の手法により、物と多くの人で混雑する環境下で、ロボットが個人の社会的空間、更には複数人や物によって形成される空間的な間(ま)を尊重することが可能となる。これにより、混雑環境下でも移動障害物に衝突しないだけでなく、周囲の人の社会的空間をなるべく侵さないような経路を生成できることをシミュレーションにより検証する。
個人空間及び空間的な間を考慮した自律移動ロボットの経路生成
個人空間モデル
人の身体周辺の一定距離範囲内には,自分と関わりのない他者に侵入されると不快感や不安感を引き起こす目には見えない空間が存在し,それを個人空間(personal space) と呼ぶ。人の状態をp(x,y,θ,v)とし、個人空間モデルを二次元のガウス関数Φp [4]で定義する。人の状態pはガウス関数の中心であり、∑は変数qの共分散であり、パラメータσx、σyは個人空間の形状を定義する。
∅_(p,∑) (q)=e^(-1/2 (q-p)^t ∑^(-1) (q-p)),∑▒〖=(■(〖σ_x〗^2&0@0&〖σ_y〗^2 )) (1)〗
一般的に、個人空間は人の前に大きく、人の後ろに小さい。従って、個人空間は、2つのガウス関数の混合によって定義できる。人の顔の向きがx軸の方向であると仮定すると、
∅_(p,∑_1,∑_2 ) (q)={■(e^(-1/2 (q-p)^t 〖∑_1〗^(-1) (q-p))&x≥0@e^(-1/2 (q-p)^t 〖∑_2〗^(-1) (q-p))&x<0)┤ (2)
∑_1と∑_2は、それぞれこれらの2つの関数の変数qの共分散である。本論文では、
∑_1▒〖=(■(〖σ_x〗^2&0@0&〖σ_y〗^2 )) 〗, ∑_2▒〖=(■(〖σ_y〗^2&0@0&〖σ_y〗^2 )) 〗 〖,σ_x〗^2>〖σ_y〗^2 (3)
x≥0のとき、人の正面領域を表し、個人空間の形は楕円である;x<0のとき、人の背面領域を表し、個人空間の形は円である。
空間的な間のモデル
環境内の複数人物を単に障害物として扱うのではなく、人と他の人の関係性がどう変化していくかを把握する必要がある。一般的に複数人でインタラクションをしているときは参与者同士互いに移動することによって参与者たちの内側に円形のO空間が形成される。このようにしてできたO空間が空間的な間であると考えられる。Kendonによって定義された[5]F陣形の概念によると、2人以上の人が会話しているときには、円形の形をしたF陣形を示し、O空間は、その中心が内部空間の中心と一致する円として取ることができる。2人の場合、いくつかのF陣形が定義されており[6]、その例を図1に示す。

(a) Vis-a-Vis (b)L-Shape (c) C-shape (d) V-shape
図1 F陣形の例
空間的な間のモデル(O空間)は[7]で定義されている。O空間は特定のF陣形(Vis-a-vis、L-Shape、C-ShapeまたはV-Shape)に依存する。身体の位置と方向に基づいて、O空間を構築できる。図1(a)に示す2人の位置はそれぞれH_1= (x1, y1)とH_2= (x2, y2)である。方向はそれぞれ∅_1と∅_2である。D_HはH_1とH_2のユークリッド距離、V_iは2人の方向を表現するベクトルの交点、H_12はH_1とH_2の中心、CはV_iとH_12の中心、D_iはV_iとH_12の間の距離である。空間的な間のモデルは二次元のガウス関数F_c[7]を用いて表現する。
F_(C,∑) (q)=e^(-1/2 (q-C)^2 ∑^(-1) (q-C)),∑▒〖=(■(〖σ_x〗^2&0@0&〖σ_y〗^2 )) (4)〗
ここで、∑は対角共分散行列であり、σx、σyは空間的な間の形状を定義する。
人と物との関係性モデル
人と人との関係に加えて、人と物との間には一定の関係があることもある。例えば、掲示板の前で広告を見ている人がいる場合、ロボットは人と掲示板との間に形成された空間を通過できるかどうかという問題がある。それで、環境内の人と物との関係性を把握するために、関係性モデルを提案する。図2に示す人と物との関係性モデルは以下の関係関数Rによって表される。

(a) d/L<10 (b) d/L>10
図2 人と物との関係性モデル
R(d,θ)= P×K/d,&d/L<10(cosθ)×Kd,dL≥10 (5)
P=1,&θ_1<θ<θ20,&other (6)
ここで、dは人と物との距離、Kは関係性定数である。
混雑状況に応じた対応
混雑時に個人空間を考慮すると経路が生成しにくくなる。そこで、混雑度によって個人空間の大きさを自動的に変化させる手法を提案する。混雑度が大きいほど、個人空間が小さいことが望ましい。
一方、ロボットから遠いところの混雑度はロボットの進行との関係がないため、ロボットの進行方向以外の混雑度は計測しなくて良い。人間の眼の視野角が120度であるとして、ロボットの観測範囲はロボットの進行方向からそれぞれ左右60度、半径6mと仮定する。ロボットの観測範囲内の人数は不均衡である可能性があるため、図3に示すようにロボットの観測範囲を平均して5つの領域に分割する。5つの領域の混雑度を計測する。この手法により、観測範囲内の各領域での混雑度の測定は細かくなる。

図3観測範囲の分割 図4各領域での混雑度の計測
混雑度は式(7)で定義する。
混雑度:C=N/S (7)
図4に示すようにNは各領域内で観測される移動障害物(歩行者)の数である。Sは各領域内のロボットから観測できる範囲の面積(オクルージョン領域を除いた領域)である。なお、図4でオクルージョン領域は観測領域と違う色で表している。
Hallの空間理論[5]によって、人の個人空間の範囲は0~1.2mである。密接空間の範囲は0~0.45mである。個人空間と密接空間との最大値によって、最初に混雑度の二つの閾値C_1, C_2を計算する。本研究では人を円で表す。
C_1=1/(π×(p_front0+R)×(p_back0+R)) (8)
C_2=1/(π×(i_front0+R)×(i_back0+R)) (9)
C_3=1/(π×R×R) (10)
ここで、p_front0、p_back0は人の正面領域と背面領域との個人空間の最大値、i_front0、i_back0は人の正面領域と背面領域との密接空間の最大値、Rは人の半径である。
次に、混雑度によって個人空間および密接空間の大きさを自動的に変化させる方法は下記の数式で定義する。
C<C_1のとき、
p_front=p_front0, p_back=p_back0 (11)
C_1≤C≤C_2のとき、
p_front=p_front0-(p_front0-i_front0)/((C_2-C_1 ) )×(C-C_1 ) (12)
p_back=p_back0-(p_back0-i_back0)/((C_2-C_1 ) )×(C-C_1 ) (13)
C_1>C_2のとき、
i_front=i_front0-i_front0/((C_3-C_2 ) )×(C-C_2 ) (14)
i_back=i_back0-i_back0/((C_3-C_2 ) )×(C-C_2 ) (15)
経路生成及び衝突の判定
本研究では、経路生成及び移動障害物の移動予測について、坂原ら[8]、黒坂ら[1]が提案した時空間 RRT と中村ら[2] が提案したサンプリング阻害モデルに基づいて行う。個人空間と空間的な間のモデルは二次元のガウス関数であるため、個人空間の場合、パラメータσx、σyは人の正面領域と背面領域の長さを表す。空間的な間の場合、σx、σyはO空間の形状を表す。σx、σyが対応するガウス関数のx,y平面への投影は個人空間領域とO空間領域を表す。個人空間とO空間外端が対応するガウス関数の値はe^(-1/2)である。個人空間とO空間以外の区域が対応するガウス関数の値はe^(-1/2)より小さい。それで、サンプリングするとき、同時にΦpを計算する。0<Φp<e^(-1/2)のとき、サンプリングする。Φp≥e^(-1/2)のとき、サンプリングしない。
個人空間と空間的な間を考慮するため、ロボットが人の個人空間と複数人や物によって形成される空間的な間内に入ると、衝突として判定する。個人空間とO空間外端の閾値e^(-1/2)及びガウス関数が中心へ向かうほど、関数の値が高いことによって、ロボットの位置でガウス関数値Φpを計算し、Φp>e^(-1/2)とき、衝突として判定する。
シミュレーション実験による検証
実験環境は、個人空間を考慮した場合、5.0[m]×4.0[m]の長方形領域、空間的な間を考慮した場合、7.0[m]×6.0[m]の長方形領域で、人物は半径0.25[m]の円形で表す。この環境内でロボットが経路生成を複数回行う。すべての実験において、ロボットの移動速度は1.2[m/s],加速度は5.0[m/s^2]、最大予測時間は5.0[s]間、シミュレーション時間ステップは0.1[s]とした。また、実環境に即したシミュレーションを行うため、移動障害物としてはロボットから観測できる範囲に存在する人と物のみを考慮した。
5.1 個人空間を考慮した移動ロボットの経路生成
5.1.1 静的及び動的環境下:1人の場合
図5、6に示すように静的及び動的環境下における、ロボットがそれぞれ経路生成を100回行う。動的環境下における、移動人物の速度は0.9[m/s]である。

a)個人空間の考慮:無 b)個人空間の考慮:有
図5 静的環境下
a)個人空間の考慮:無 b)個人空間の考慮:有
図6 動的環境下
5.1.2 複数人及び混雑状況での検証
ロボットの自律移動経路(赤い線)

図7 5人 図8 10人
図7、8は5人と10人の環境を表す。黄色及び黄色内側の領域は個人空間を示す。図7では、5人の平均的でまばらな分布のため、自動的に計算された個人空間はC<C_1のときの個人空間の最大値である。図8は10人がいる環境下で、人の位置分布はそれほど平均的ではない。左上と右下の4人はまばらに分布しているため、個人空間が大きい。真ん中3人が局所的に混雑しているため、自動的に計算された個人空間が小さい。シミュレーション結果から、ロボットが混雑度によって、個人空間の大きさを自動的に変化させ、個人空間を尊重しながら行動していることが分かる。
5.2 空間的な間を考慮した移動ロッボトの経路生成
F陣形中のVis-à-visとL-Shapeを選び、ロボットが経路生成を100回行う。
a) 人と人との関係性:無 b) 人と人との関係性:有
図9 Vis-a-Vis








a) 人と人との関係性:無 b) 人と人との関係性:有
図10 L-Shape
シミュレーション結果から見ると、人と人との関係性がないときには、個人空間のみを尊重している。人と人との関係性があるときには、空間的な間(O空間)を尊重している。
むすび
本論文では自律移動ロボットにおいて、複数人のグループや物によって形成される様々な空間的な間(ま)の意味を解釈しながら経路生成を行うことを目的としてシミュレーション実験を実施した。人と物との関係性モデル、混雑環境下における個人空間及び空間的な間を考慮した自律移動ロボットの経路生成手法を提案した。人の個人空間を考慮する場合、静的及び動的環境下において、個人空間の考慮の有無についてシミュレーション比較実験をした。複数人及び混雑状況のとき、混雑度によって個人空間の大きさを自動的に変化させ、経路を生成しやすくすることにより、ロボットが停止してしまうことを起きにくくすることが確認できた。空間的な間を考慮するとき、人と人との関係性の有無によって、異なる社会的空間を尊重することが確認できた。
今後の課題としては、人と物の社会的空間の尊重をシミュレーション実験によって検証する。また、シミュレーション実験を基に、現実世界でも実装可能かどうかを確認するため、ロボットへの実装を行い検証をしていく予定である。

文 献
黒坂翼, 中村友昭, 金子正秀:“動的障害物の移動 量の曖昧性を考慮した時空間 RRT による自律移 動ロボットの経路生成," 映像情報メディア学会 技術報告, ME2016-13, pp. 49-52, 2016.
中村和樹, 中村友昭, 金子正秀:“混雑状況におけるローカル情報を用いた時空間RRTによる自律移動ロボットの動的経路生成," 映像情報メディア学会 技術報告, ME2018-13, pp. 89-92, 2018.
細田祐司、山本健次郎:“人間共生ロボットの衝突回避制御,” 日本機械学会論文集C, vol.77,no.775, pp.1051-1061,2011.3.
H. Laga and T. Amaoka, “Modeling the spatial behavior of virtual agents in groups for non-verbal communication in virtual worlds,” IUCS ’09, 2009.
Kendon:“ Conducting Interaction - Patterns of Behavior in Focused Encounters, ”Cambridge University Press, Cambridge, U.K. 1990.
M. Ciolek and A. Kendon, “Environment and the spatial arrangement of conversational encounters,” Sociological Inquiry, vol. 50, pp. 237– 271, 1980.
J. Rios-Martinez, A. Spalanzani, and C. Laugier, “Understanding human interaction for probabilistic autonomous navigation,” in IEEE/RSJ International Conference on Intelligent Robots and Systems, 2011.
坂原洋人, 升谷保博, 宮崎文夫 : “時空間 RRT による複数移動障害物を考慮したリアルタイム軌道生成,” 計測自動制御学会論文集, Vol.43, No.4, pp. 277-284, 2007. 
(英) (Not available yet)
キーワード (和) 個人空間 / 空間的な間 / 時空間RRT / 混雑 / 経路生成 / / /  
(英) Personal Space / O Space / Spatiotemporal RRT / Crowded Condition / Path Planning / / /  
文献情報 映情学技報, vol. 43, no. 4, ME2019-18, pp. 59-62, 2019年2月.
資料番号 ME2019-18 
発行日 2019-02-02 (ME) 
ISSN Print edition: ISSN 1342-6893    Online edition: ISSN 2424-1970
PDFダウンロード

研究会情報
研究会 ME  
開催期間 2019-02-09 - 2019-02-09 
開催地(和) 関東学院大学 
開催地(英) Kanto Gakuin University 
テーマ(和) 学生研究発表会 
テーマ(英)  
講演論文情報の詳細
申込み研究会 ME 
会議コード 2019-02-ME 
本文の言語 日本語 
タイトル(和) 複数人や物によって形成される空間的な間の意味を解釈しながら経路生成を行う自律移動ロボット 
サブタイトル(和)  
タイトル(英) Autonomous mobile robot which plans its path with interpreting the meanings among the spaces formed by multiple people and objects 
サブタイトル(英)  
キーワード(1)(和/英) 個人空間 / Personal Space  
キーワード(2)(和/英) 空間的な間 / O Space  
キーワード(3)(和/英) 時空間RRT / Spatiotemporal RRT  
キーワード(4)(和/英) 混雑 / Crowded Condition  
キーワード(5)(和/英) 経路生成 / Path Planning  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 卜 憲輝 / Xianhui Bu / ボク ケンキ
第1著者 所属(和/英) 電気通信大学 (略称: 電通大)
The University of Electro-Communications (略称: UEC)
第2著者 氏名(和/英/ヨミ) 中村 友昭 / Tomoaki Nakamura / ナカムラ トモアキ
第2著者 所属(和/英) 電気通信大学 (略称: 電通大)
The University of Electro-Communications (略称: UEC)
第3著者 氏名(和/英/ヨミ) 金子 正秀 / Masahide Kaneko / カネコ マサヒデ
第3著者 所属(和/英) 電気通信大学 (略称: 電通大)
The University of Electro-Communications (略称: UEC)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2019-02-09 13:45:00 
発表時間 15分 
申込先研究会 ME 
資料番号 ME2019-18 
巻番号(vol) vol.43 
号番号(no) no.4 
ページ範囲 pp.59-62 
ページ数
発行日 2019-02-02 (ME) 


[研究会発表申込システムのトップページに戻る]

[映像情報メディア学会ホームページ]


ITE / 映像情報メディア学会