お知らせ ◆映像情報メディア学会における研究会の開催について (新型コロナウイルス関連)2021年7月21日更新
映像情報メディア学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2022-02-21 13:15
汎用な深層画像圧縮に向けた検討
坪田亘記東大)・圷 弘明日立)・相澤清晴東大
抄録 (和) 本研究では,汎用な深層画像圧縮に向けた検討を行う.画像圧縮では,自然画像だけではなく加工された写真,線画,イラストといった広いドメインの画像を圧縮できるのが望ましい.しかしながら,一般に深層画像圧縮では自然画像のみを評価対象として研究が行われており,自然画像以外の画像を対象とした研究はほとんど行われていない.本研究では,複数のドメインからなるデータセットを用いて,伝統的手法と比較しながら既存の深層画像圧縮モデルの検証を行う.次に,複数のドメインを学習に用いた場合の,学習ドメインに対する性能と学習時に未知なドメインへの汎化性能を検証する.この学習方法は,ドメイン汎化やマルチドメイン学習のベースラインといえる手法である.実験では,伝統的手法と比較して自然画像で学習した深層画像圧縮手法では低い性能であり,特に高いレートにおいて性能が低下することを示す.また,複数ドメインでの平均的な性能は単一ドメインで学習するよりも複数ドメインで学習する方が高くなる一方で,各ドメインでの最も性能が高くなるのは評価するドメインのみで学習した場合であることを示す. 
(英) In this paper, we investigate deep image compression towards universal usage. In image compression, it is desirable to be able to compress not only natural images but also images in a wide range of domains such as processed photographs, line drawings, and illustrations. However, deep image compression has been generally studied only for natural images and little has been studied for non-natural images. In this study, we first validate the existing deep image compression models using a dataset consisting of multiple domains. Then, we train a compression model on multiple domains and examine the performance on the training domains and unseen domains during training. This method is a baseline method for domain generalization and multi-domain learning. In experiments, we show that deep image compression methods trained on natural images achieve lower performance than traditional methods, especially at higher rates. We also show that while the average performance across multiple domains is higher when training on multiple domains than when training on a single domain, the best performance in each domain is achieved when training on only the evaluation domain.
キーワード (和) 画像圧縮 / 深層学習 / ドメイン汎化 / マルチドメイン学習 / / / /  
(英) image compression / deep neural networks / domain generalization / multi-domain learning / / / /  
文献情報 映情学技報
資料番号  
発行日  
ISSN Print edition: ISSN 1342-6893  Online edition: ISSN 2424-1970
PDFダウンロード

研究会情報
研究会 AIT ME MMS IEICE-IE IEICE-ITS  
開催期間 2022-02-21 - 2022-02-22 
開催地(和) オンライン開催 
開催地(英) online 
テーマ(和) 画像処理、一般 
テーマ(英)  
講演論文情報の詳細
申込み研究会 IEICE-IE 
会議コード 2022-02-IE-ITS-AIT-ME-MMS 
本文の言語 日本語 
タイトル(和) 汎用な深層画像圧縮に向けた検討 
サブタイトル(和)  
タイトル(英) Towards Universal Deep Image Compression 
サブタイトル(英)  
キーワード(1)(和/英) 画像圧縮 / image compression  
キーワード(2)(和/英) 深層学習 / deep neural networks  
キーワード(3)(和/英) ドメイン汎化 / domain generalization  
キーワード(4)(和/英) マルチドメイン学習 / multi-domain learning  
キーワード(5)(和/英) /  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 坪田 亘記 / Koki Tsubota / ツボ タコウキ
第1著者 所属(和/英) 東京大学 (略称: 東大)
The University of Tokyo (略称: UTokyo)
第2著者 氏名(和/英/ヨミ) 圷 弘明 / Hiroaki Akutsu / アクツ ヒロアキ
第2著者 所属(和/英) 株式会社 日立製作所 (略称: 日立)
Hitachi, Ltd. (略称: Hitachi)
第3著者 氏名(和/英/ヨミ) 相澤 清晴 / Kiyoharu Aizawa / アイザワ キヨハル
第3著者 所属(和/英) 東京大学 (略称: 東大)
The University of Tokyo (略称: UTokyo)
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2022-02-21 13:15:00 
発表時間 15 
申込先研究会 IEICE-IE 
資料番号  
巻番号(vol) ITE-46 
号番号(no)  
ページ範囲  
ページ数 ITE- 
発行日  


[研究会発表申込システムのトップページに戻る]

[映像情報メディア学会ホームページ]


ITE / 映像情報メディア学会