| 講演抄録/キーワード |
| 講演名 |
2026-02-28 13:45
全周囲映像を用いた仮想運転環境の構築と注視対象物自動認識の試み ○奥谷祥甲・西村和真・杉山 治・多田昌裕(近畿大) |
| 抄録 |
(和) |
本研究では,実写映像を用いた現実感の高い仮想運転環境の構築と,運転者の注視対象物の自動認識手法を提案する.全周囲カメラ映像とペダル連動型の再生速度制御システムにより,従来の受動的な映像視聴では困難であった能動的な運転操作を伴う評価環境を実現した.また,VRヘッドセットの視線情報を画像座標へ変換し,Semantic Segmentationモデル(OneFormer)と統合することで注視対象物を自動識別する手法を構築した.さらに,VR空間内の3D自車両モデルを活用した誤検出抑制手法を導入し,実験の結果,自車両と他車両の正確な分離に成功し,F値0.88という認識精度を達成した.本手法により視線データのアノテーションを自動化でき,大規模視線データの効率的解析および運転者行動特性の定量的評価への応用可能性が示された. |
| (英) |
This study proposes a realistic virtual driving environment using omnidirectional video and an automatic gaze target recognition method. By combining omnidirectional video with a pedal-linked playback speed control system, we developed an evaluation environment enabling active driving operations, which was difficult with conventional passive viewing. In addition, we developed a method to automatically identify gaze targets by converting gaze information from a VR headset into image coordinates and integrating it with a semantic segmentation model (OneFormer). By introducing a misdetection suppression method using a 3D ego-vehicle model in VR space, we successfully separated the ego-vehicle from other vehicles and achieved a recognition accuracy with an f1 score of 0.88. The proposed framework automates the annotation of gaze data, thereby enabling large-scale analysis and highlighting its potential for quantitative assessment of driver behavioral characteristics. |
| キーワード |
(和) |
全周囲映像 / 仮想運転環境 / 注視対象物認識 / セマンティックセグメンテーション / 視線計測 / VR / / |
| (英) |
Omnidirectional Video / Virtual Driving Environment / Gaze Target Recognition / Semantic Segmentation / Eye Tracking / VR / / |
| 文献情報 |
映情学技報, vol. 50, no. 6, ME2026-47, pp. 35-38, 2026年2月. |
| 資料番号 |
ME2026-47 |
| 発行日 |
2026-02-21 (ME) |
| ISSN |
Online edition: ISSN 2424-1970 |
| PDFダウンロード |
|
| 研究会情報 |
| 研究会 |
ME |
| 開催期間 |
2026-02-28 - 2026-02-28 |
| 開催地(和) |
オンライン開催 |
| 開催地(英) |
online |
| テーマ(和) |
学生研究発表会 |
| テーマ(英) |
|
| 講演論文情報の詳細 |
| 申込み研究会 |
ME |
| 会議コード |
2026-02-ME |
| 本文の言語 |
日本語 |
| タイトル(和) |
全周囲映像を用いた仮想運転環境の構築と注視対象物自動認識の試み |
| サブタイトル(和) |
|
| タイトル(英) |
A Study on the Development of a Virtual Driving Environment Using Omnidirectional Video and the Automatic Recognition of Gaze Target Objects |
| サブタイトル(英) |
|
| キーワード(1)(和/英) |
全周囲映像 / Omnidirectional Video |
| キーワード(2)(和/英) |
仮想運転環境 / Virtual Driving Environment |
| キーワード(3)(和/英) |
注視対象物認識 / Gaze Target Recognition |
| キーワード(4)(和/英) |
セマンティックセグメンテーション / Semantic Segmentation |
| キーワード(5)(和/英) |
視線計測 / Eye Tracking |
| キーワード(6)(和/英) |
VR / VR |
| キーワード(7)(和/英) |
/ |
| キーワード(8)(和/英) |
/ |
| 第1著者 氏名(和/英/ヨミ) |
奥谷 祥甲 / Yoshiki Okutani / オクタニ ヨシキ |
| 第1著者 所属(和/英) |
近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.) |
| 第2著者 氏名(和/英/ヨミ) |
西村 和真 / Kazuma Nishimura / ニシムラ カズマ |
| 第2著者 所属(和/英) |
近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.) |
| 第3著者 氏名(和/英/ヨミ) |
杉山 治 / Osamu Sugiyama / スギヤマ オサム |
| 第3著者 所属(和/英) |
近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.) |
| 第4著者 氏名(和/英/ヨミ) |
多田 昌裕 / Masahiro Tada / タダ マサヒロ |
| 第4著者 所属(和/英) |
近畿大学 (略称: 近畿大)
Kindai University (略称: Kindai Univ.) |
| 第5著者 氏名(和/英/ヨミ) |
/ / |
| 第5著者 所属(和/英) |
(略称: )
(略称: ) |
| 第6著者 氏名(和/英/ヨミ) |
/ / |
| 第6著者 所属(和/英) |
(略称: )
(略称: ) |
| 第7著者 氏名(和/英/ヨミ) |
/ / |
| 第7著者 所属(和/英) |
(略称: )
(略称: ) |
| 第8著者 氏名(和/英/ヨミ) |
/ / |
| 第8著者 所属(和/英) |
(略称: )
(略称: ) |
| 第9著者 氏名(和/英/ヨミ) |
/ / |
| 第9著者 所属(和/英) |
(略称: )
(略称: ) |
| 第10著者 氏名(和/英/ヨミ) |
/ / |
| 第10著者 所属(和/英) |
(略称: )
(略称: ) |
| 第11著者 氏名(和/英/ヨミ) |
/ / |
| 第11著者 所属(和/英) |
(略称: )
(略称: ) |
| 第12著者 氏名(和/英/ヨミ) |
/ / |
| 第12著者 所属(和/英) |
(略称: )
(略称: ) |
| 第13著者 氏名(和/英/ヨミ) |
/ / |
| 第13著者 所属(和/英) |
(略称: )
(略称: ) |
| 第14著者 氏名(和/英/ヨミ) |
/ / |
| 第14著者 所属(和/英) |
(略称: )
(略称: ) |
| 第15著者 氏名(和/英/ヨミ) |
/ / |
| 第15著者 所属(和/英) |
(略称: )
(略称: ) |
| 第16著者 氏名(和/英/ヨミ) |
/ / |
| 第16著者 所属(和/英) |
(略称: )
(略称: ) |
| 第17著者 氏名(和/英/ヨミ) |
/ / |
| 第17著者 所属(和/英) |
(略称: )
(略称: ) |
| 第18著者 氏名(和/英/ヨミ) |
/ / |
| 第18著者 所属(和/英) |
(略称: )
(略称: ) |
| 第19著者 氏名(和/英/ヨミ) |
/ / |
| 第19著者 所属(和/英) |
(略称: )
(略称: ) |
| 第20著者 氏名(和/英/ヨミ) |
/ / |
| 第20著者 所属(和/英) |
(略称: )
(略称: ) |
| 第21著者 氏名(和/英/ヨミ) |
/ / |
| 第21著者 所属(和/英) |
(略称: )
(略称: ) |
| 第22著者 氏名(和/英/ヨミ) |
/ / |
| 第22著者 所属(和/英) |
(略称: )
(略称: ) |
| 第23著者 氏名(和/英/ヨミ) |
/ / |
| 第23著者 所属(和/英) |
(略称: )
(略称: ) |
| 第24著者 氏名(和/英/ヨミ) |
/ / |
| 第24著者 所属(和/英) |
(略称: )
(略称: ) |
| 第25著者 氏名(和/英/ヨミ) |
/ / |
| 第25著者 所属(和/英) |
(略称: )
(略称: ) |
| 第26著者 氏名(和/英/ヨミ) |
/ / |
| 第26著者 所属(和/英) |
(略称: )
(略称: ) |
| 第27著者 氏名(和/英/ヨミ) |
/ / |
| 第27著者 所属(和/英) |
(略称: )
(略称: ) |
| 第28著者 氏名(和/英/ヨミ) |
/ / |
| 第28著者 所属(和/英) |
(略称: )
(略称: ) |
| 第29著者 氏名(和/英/ヨミ) |
/ / |
| 第29著者 所属(和/英) |
(略称: )
(略称: ) |
| 第30著者 氏名(和/英/ヨミ) |
/ / |
| 第30著者 所属(和/英) |
(略称: )
(略称: ) |
| 第31著者 氏名(和/英/ヨミ) |
/ / |
| 第31著者 所属(和/英) |
(略称: )
(略称: ) |
| 第32著者 氏名(和/英/ヨミ) |
/ / |
| 第32著者 所属(和/英) |
(略称: )
(略称: ) |
| 第33著者 氏名(和/英/ヨミ) |
/ / |
| 第33著者 所属(和/英) |
(略称: )
(略称: ) |
| 第34著者 氏名(和/英/ヨミ) |
/ / |
| 第34著者 所属(和/英) |
(略称: )
(略称: ) |
| 第35著者 氏名(和/英/ヨミ) |
/ / |
| 第35著者 所属(和/英) |
(略称: )
(略称: ) |
| 第36著者 氏名(和/英/ヨミ) |
/ / |
| 第36著者 所属(和/英) |
(略称: )
(略称: ) |
| 講演者 |
第1著者 |
| 発表日時 |
2026-02-28 13:45:00 |
| 発表時間 |
15分 |
| 申込先研究会 |
ME |
| 資料番号 |
ME2026-47 |
| 巻番号(vol) |
vol.50 |
| 号番号(no) |
no.6 |
| ページ範囲 |
pp.35-38 |
| ページ数 |
4 |
| 発行日 |
2026-02-21 (ME) |