映像情報メディア学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2025-11-21 14:00
[招待講演]符号化開口・イベントカメラ・深層学習の融合によるライトフィールド撮像
高橋桂太名大
抄録 (和) ライトフィールドは,被写体が作る光線群の場を表す概念であり,典型的には2次元格子状の多視点画像として表現される.ライトフィールドを撮像する最も直接的な方法は,多数のカメラを用いて多視点撮影をすることであるが,装置規模が大きくなる問題がある.一台のカメラでカメラを動かすことなくライトフィールドを撮影するため,筆者らは,符号化開口,イベントカメラ,深層学習を融合した手法に取り組んでいる.本発表では,筆者らのこれまでの取り組みを概観し,さらなる発展や応用の可能性を議論する. 
(英) The concept of light field is used to describe a field of light-rays created by target objects, and it is typically represented as a 2-D array of multi-view images. The most straightforward approach to light field acquisition is to arrange many cameras and obtain multi-view images directly, but this approach requires a large-scale and bulky hardware. To acquire a light field with a single camera without camera motions, the authors are working on the methods in which a coded aperture, event camera, and deep learning are combined. In this talk, the author will summarize our on-going development and discuss the further possibilities and applications in the future.
キーワード (和) ライトフィールド / 符号化開口 / イベントカメラ / 深層学習 / / / /  
(英) Light field / Coded aperture / Event camera / Deep learning / / / /  
文献情報 映情学技報, vol. 49, no. 34, IST2025-47, pp. 5-9, 2025年11月.
資料番号 IST2025-47 
発行日 2025-11-14 (IST) 
ISSN Online edition: ISSN 2424-1970
PDFダウンロード

研究会情報
研究会 IST  
開催期間 2025-11-21 - 2025-11-21 
開催地(和) 森戸記念館 
開催地(英)  
テーマ(和) 深層学習用プロセッサ・アクセラレータとアンコンベンショナルカメラが創る未来に向けて 
テーマ(英)  
講演論文情報の詳細
申込み研究会 IST 
会議コード 2025-11-IST 
本文の言語 日本語 
タイトル(和) 符号化開口・イベントカメラ・深層学習の融合によるライトフィールド撮像 
サブタイトル(和)  
タイトル(英) Combining Coded-Aperture, Event Camera, and Deep Learning for Light Field Imaging 
サブタイトル(英)  
キーワード(1)(和/英) ライトフィールド / Light field  
キーワード(2)(和/英) 符号化開口 / Coded aperture  
キーワード(3)(和/英) イベントカメラ / Event camera  
キーワード(4)(和/英) 深層学習 / Deep learning  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 高橋 桂太 / Keita Takahashi / タカハシ ケイタ
第1著者 所属(和/英) 名古屋大学 (略称: 名大)
Nagoya University (略称: Nagoya Univ.)
第2著者 氏名(和/英/ヨミ) / /
第2著者 所属(和/英) (略称: )
(略称: )
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
第21著者 氏名(和/英/ヨミ) / /
第21著者 所属(和/英) (略称: )
(略称: )
第22著者 氏名(和/英/ヨミ) / /
第22著者 所属(和/英) (略称: )
(略称: )
第23著者 氏名(和/英/ヨミ) / /
第23著者 所属(和/英) (略称: )
(略称: )
第24著者 氏名(和/英/ヨミ) / /
第24著者 所属(和/英) (略称: )
(略称: )
第25著者 氏名(和/英/ヨミ) / /
第25著者 所属(和/英) (略称: )
(略称: )
第26著者 氏名(和/英/ヨミ) / /
第26著者 所属(和/英) (略称: )
(略称: )
第27著者 氏名(和/英/ヨミ) / /
第27著者 所属(和/英) (略称: )
(略称: )
第28著者 氏名(和/英/ヨミ) / /
第28著者 所属(和/英) (略称: )
(略称: )
第29著者 氏名(和/英/ヨミ) / /
第29著者 所属(和/英) (略称: )
(略称: )
第30著者 氏名(和/英/ヨミ) / /
第30著者 所属(和/英) (略称: )
(略称: )
第31著者 氏名(和/英/ヨミ) / /
第31著者 所属(和/英) (略称: )
(略称: )
第32著者 氏名(和/英/ヨミ) / /
第32著者 所属(和/英) (略称: )
(略称: )
第33著者 氏名(和/英/ヨミ) / /
第33著者 所属(和/英) (略称: )
(略称: )
第34著者 氏名(和/英/ヨミ) / /
第34著者 所属(和/英) (略称: )
(略称: )
第35著者 氏名(和/英/ヨミ) / /
第35著者 所属(和/英) (略称: )
(略称: )
第36著者 氏名(和/英/ヨミ) / /
第36著者 所属(和/英) (略称: )
(略称: )
講演者 第1著者 
発表日時 2025-11-21 14:00:00 
発表時間 30分 
申込先研究会 IST 
資料番号 IST2025-47 
巻番号(vol) vol.49 
号番号(no) no.34 
ページ範囲 pp.5-9 
ページ数
発行日 2025-11-14 (IST) 


[研究会発表申込システムのトップページに戻る]

[映像情報メディア学会ホームページ]


ITE / 映像情報メディア学会