論文の概要: CDLNet: Robust and Interpretable Denoising Through Deep Convolutional
Dictionary Learning
- arxiv url: http://arxiv.org/abs/2103.04779v1
- Date: Fri, 5 Mar 2021 01:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:11:52.654339
- Title: CDLNet: Robust and Interpretable Denoising Through Deep Convolutional
Dictionary Learning
- Title(参考訳): CDLNet:Deep Convolutional Dictionary Learningによるロバストで解釈可能なDenoising
- Authors: Nikola Janju\v{s}evi\'c, Amirhossein Khalilian-Gourtani, Yao Wang
- Abstract要約: unrolled optimization networksは、ディープニューラルネットワークを構築するための解釈可能な代替案を提案する。
提案したモデルが,同様のパラメータ数にスケールすると,最先端のデノイジングモデルに勝ることを示す。
- 参考スコア(独自算出の注目度): 6.6234935958112295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based methods hold state-of-the-art results in image denoising,
but remain difficult to interpret due to their construction from poorly
understood building blocks such as batch-normalization, residual learning, and
feature domain processing. Unrolled optimization networks propose an
interpretable alternative to constructing deep neural networks by deriving
their architecture from classical iterative optimization methods, without use
of tricks from the standard deep learning tool-box. So far, such methods have
demonstrated performance close to that of state-of-the-art models while using
their interpretable construction to achieve a comparably low learned parameter
count. In this work, we propose an unrolled convolutional dictionary learning
network (CDLNet) and demonstrate its competitive denoising performance in both
low and high parameter count regimes. Specifically, we show that the proposed
model outperforms the state-of-the-art denoising models when scaled to similar
parameter count. In addition, we leverage the model's interpretable
construction to propose an augmentation of the network's thresholds that
enables state-of-the-art blind denoising performance and near-perfect
generalization on noise-levels unseen during training.
- Abstract(参考訳): 深層学習に基づく手法は、画像の復調における最先端の結果を保持するが、バッチ正規化や残差学習、特徴領域処理といった、理解の行き届かない構成要素から構築されているため、解釈が困難である。
unrolled optimization networksは、通常のディープラーニングツールボックスからトリックを使わずに、古典的な反復的最適化手法からアーキテクチャを導出することで、ディープニューラルネットワークを構築するための解釈可能な代替案を提案する。
これまでのところ、そのような手法は、解釈可能な構成を用いて比較可能な低い学習パラメータ数を達成する一方で、最先端モデルに近いパフォーマンスを示している。
本研究では,未展開の畳み込み辞書学習ネットワーク (CDLNet) を提案し,低パラメータと高パラメータの両方で競合する消音性能を示す。
具体的には,同様のパラメータ数にスケールした場合,提案モデルが最先端のデノージングモデルを上回ることを示す。
さらに,本モデルの解釈可能な構成を利用して,学習中に見えない雑音レベルに対する最先端のブラインドデノイング性能とほぼ完璧な一般化を可能にする,ネットワークのしきい値の増大を提案する。
関連論文リスト
- Pivotal Auto-Encoder via Self-Normalizing ReLU [20.76999663290342]
トランスフォーメーション学習問題として,単一の隠蔽層スパースオートエンコーダを定式化する。
本稿では,テスト時の騒音レベルに不変な予測モデルを実現する最適化問題を提案する。
実験結果から, 各種ノイズに対する安定性が向上することが示唆された。
論文 参考訳(メタデータ) (2024-06-23T09:06:52Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - CDLNet: Noise-Adaptive Convolutional Dictionary Learning Network for
Blind Denoising and Demosaicing [4.975707665155918]
アンロール最適化ネットワークは、ディープニューラルネットワークを構築するための解釈可能な代替手段を提供する。
本稿では,非学習型畳み込み辞書学習ネットワーク(CDLNet)を提案する。
具体的には,提案モデルが類似パラメータ数にスケールした場合に,完全畳み込みモデルやJDDモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-12-02T01:23:21Z) - Improved Model based Deep Learning using Monotone Operator Learning
(MOL) [25.077510176642807]
アンローリングに依存するMoDLアルゴリズムは、イメージリカバリのための強力なツールとして登場している。
我々は,現在展開されていないフレームワークに関連するいくつかの課題を克服するために,新しいモノトーン演算子学習フレームワークを導入する。
並列MRIにおける提案手法の有用性を実証する。
論文 参考訳(メタデータ) (2021-11-22T17:42:27Z) - Meta-Optimization of Deep CNN for Image Denoising Using LSTM [0.0]
メタ最適化トレーニング手法をDnCNN復調アルゴリズムに適用し,復調能力の向上を図る。
より単純なアルゴリズムに関する予備実験により,DnCNN復調能力向上に向けたメタ最適化トレーニング手法の活用の可能性を明らかにした。
論文 参考訳(メタデータ) (2021-07-14T16:59:44Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Self-Supervised Fast Adaptation for Denoising via Meta-Learning [28.057705167363327]
本稿では,最先端の教師付き復調手法を大幅に上回る新しい復調手法を提案する。
提案手法は, パラメータを追加することなく, 最先端の復調ネットワークに容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-01-09T09:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。