お知らせ ◆映像情報メディア学会における研究会の開催について (新型コロナウイルス関連)2021年7月21日更新
映像情報メディア学会 研究会発表申込システム
講演論文 詳細
技報閲覧サービス
技報オンライン
 トップに戻る 前のページに戻る   [Japanese] / [English] 

講演抄録/キーワード
講演名 2021-06-04 15:15
画像復元のためのNSOLT辞書学習の加速に関する研究
高橋颯志村松正吾新潟大
抄録 (和) 本稿では,画像復元のための非分離冗長重複変換(NSOLT)の学習設計の高速化について報告する.近年の計測技術の発展に伴い,多様かつ多量のデータ取得が可能となった.同時にスパースモデリングによる画像復元の需要が高まっている.復元技術の一例として辞書学習がある.村松らはNSOLT辞書学習を提案し,その有効性を示している.NSOLTを構造化畳み込み辞書として利用し,設計パラメータの最適化に確率的勾配降下法(SGD)を使用している.しかしSGDは収束性に欠点があるため,改善の余地が残されている.本研究ではSGDを速度の点で改良した確率的分散縮小勾配法(SVRG)を最適化手法に採用し,辞書学習の加速を検討する. 
(英) This study proposes to accelerate example-based design of non-separable oversampled lapped transform (NSOLT) for image restoration. With development of the recent measurement techniques, it becomes possible to obtain a various huge amount of data. At the same time, image restoration by sparse modeling is demanded. There is a dictionary learning technique as an example of image restoration techniques. Muramatsu et al. proposed convolutional dictionary learning with NSOLT and showed the significance. Stochastic gradient decent (SGD) is used for optimization of design parameters on NSOLT as a structured convolutional dictionary. However, SGD has a disadvantage at convergence, so there is room for improvement. In this report, we propose to apply stochastic variance reduced gradient (SVRG) which is a variant of SGD and review the acceleration performance of the dictionary learning.
キーワード (和) 辞書学習 / スパースモデリング / 非分離冗長重複変換 / 確率的分散縮小勾配法 / 画像復元 / / /  
(英) Dictionary learning / Sparse modeling / Non-separable oversampled lapped transform / Stochastic variance reduced gradient / Image restoration / / /  
文献情報 映情学技報, vol. 45, no. 13, ME2021-58, pp. 87-92, 2021年6月.
資料番号 ME2021-58 
発行日 2021-05-27 (IST, ME) 
ISSN Print edition: ISSN 1342-6893  Online edition: ISSN 2424-1970
PDFダウンロード

研究会情報
研究会 IST ME IEICE-IE IEICE-SIP IEICE-BioX  
開催期間 2021-06-03 - 2021-06-04 
開催地(和) オンライン開催 
開催地(英) Online 
テーマ(和) 映像・信号の処理・解析・AI技術とその多分野応用 
テーマ(英)  
講演論文情報の詳細
申込み研究会 ME 
会議コード 2021-06-IST-ME-IE-SIP-BioX 
本文の言語 日本語 
タイトル(和) 画像復元のためのNSOLT辞書学習の加速に関する研究 
サブタイトル(和)  
タイトル(英) Acceleration of Dictionary Learning by Non-Separable Oversampled Lapped Transform for Image Restoration 
サブタイトル(英)  
キーワード(1)(和/英) 辞書学習 / Dictionary learning  
キーワード(2)(和/英) スパースモデリング / Sparse modeling  
キーワード(3)(和/英) 非分離冗長重複変換 / Non-separable oversampled lapped transform  
キーワード(4)(和/英) 確率的分散縮小勾配法 / Stochastic variance reduced gradient  
キーワード(5)(和/英) 画像復元 / Image restoration  
キーワード(6)(和/英) /  
キーワード(7)(和/英) /  
キーワード(8)(和/英) /  
第1著者 氏名(和/英/ヨミ) 高橋 颯志 / Soushi Takahashi / タカハシ ソウシ
第1著者 所属(和/英) 新潟大学 (略称: 新潟大)
Niigata University (略称: Niigata Univ.)
第2著者 氏名(和/英/ヨミ) 村松 正吾 / Shogo Muramatsu / ムラマツ ショウゴ
第2著者 所属(和/英) 新潟大学 (略称: 新潟大)
Niigata University (略称: Niigata Univ.)
第3著者 氏名(和/英/ヨミ) / /
第3著者 所属(和/英) (略称: )
(略称: )
第4著者 氏名(和/英/ヨミ) / /
第4著者 所属(和/英) (略称: )
(略称: )
第5著者 氏名(和/英/ヨミ) / /
第5著者 所属(和/英) (略称: )
(略称: )
第6著者 氏名(和/英/ヨミ) / /
第6著者 所属(和/英) (略称: )
(略称: )
第7著者 氏名(和/英/ヨミ) / /
第7著者 所属(和/英) (略称: )
(略称: )
第8著者 氏名(和/英/ヨミ) / /
第8著者 所属(和/英) (略称: )
(略称: )
第9著者 氏名(和/英/ヨミ) / /
第9著者 所属(和/英) (略称: )
(略称: )
第10著者 氏名(和/英/ヨミ) / /
第10著者 所属(和/英) (略称: )
(略称: )
第11著者 氏名(和/英/ヨミ) / /
第11著者 所属(和/英) (略称: )
(略称: )
第12著者 氏名(和/英/ヨミ) / /
第12著者 所属(和/英) (略称: )
(略称: )
第13著者 氏名(和/英/ヨミ) / /
第13著者 所属(和/英) (略称: )
(略称: )
第14著者 氏名(和/英/ヨミ) / /
第14著者 所属(和/英) (略称: )
(略称: )
第15著者 氏名(和/英/ヨミ) / /
第15著者 所属(和/英) (略称: )
(略称: )
第16著者 氏名(和/英/ヨミ) / /
第16著者 所属(和/英) (略称: )
(略称: )
第17著者 氏名(和/英/ヨミ) / /
第17著者 所属(和/英) (略称: )
(略称: )
第18著者 氏名(和/英/ヨミ) / /
第18著者 所属(和/英) (略称: )
(略称: )
第19著者 氏名(和/英/ヨミ) / /
第19著者 所属(和/英) (略称: )
(略称: )
第20著者 氏名(和/英/ヨミ) / /
第20著者 所属(和/英) (略称: )
(略称: )
講演者
発表日時 2021-06-04 15:15:00 
発表時間 30 
申込先研究会 ME 
資料番号 ITE-IST2021-27,ITE-ME2021-58 
巻番号(vol) ITE-45 
号番号(no) no.13 
ページ範囲 pp.87-92 
ページ数 ITE-6 
発行日 ITE-IST-2021-05-27,ITE-ME-2021-05-27 


[研究会発表申込システムのトップページに戻る]

[映像情報メディア学会ホームページ]


ITE / 映像情報メディア学会