論文の概要: Rotation Equivariant Proximal Operator for Deep Unfolding Methods in
Image Restoration
- arxiv url: http://arxiv.org/abs/2312.15701v1
- Date: Mon, 25 Dec 2023 11:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:53:37.157950
- Title: Rotation Equivariant Proximal Operator for Deep Unfolding Methods in
Image Restoration
- Title(参考訳): 画像復元における深部展開法における回転同変近似演算子
- Authors: Jiahong Fu, Qi Xie, Deyu Meng and Zongben Xu
- Abstract要約: 本稿では, 回転対称性を組み込んだ高精度な回転同変近位ネットワークを提案する。
本研究は, 回転対称性の先行を深く展開する枠組みに効果的に組み込む, 高精度な回転同変近位ネットワークを提案する。
- 参考スコア(独自算出の注目度): 68.18203605110719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep unfolding approach has attracted significant attention in computer
vision tasks, which well connects conventional image processing modeling
manners with more recent deep learning techniques. Specifically, by
establishing a direct correspondence between algorithm operators at each
implementation step and network modules within each layer, one can rationally
construct an almost ``white box'' network architecture with high
interpretability. In this architecture, only the predefined component of the
proximal operator, known as a proximal network, needs manual configuration,
enabling the network to automatically extract intrinsic image priors in a
data-driven manner. In current deep unfolding methods, such a proximal network
is generally designed as a CNN architecture, whose necessity has been proven by
a recent theory. That is, CNN structure substantially delivers the
translational invariant image prior, which is the most universally possessed
structural prior across various types of images. However, standard CNN-based
proximal networks have essential limitations in capturing the rotation symmetry
prior, another universal structural prior underlying general images. This
leaves a large room for further performance improvement in deep unfolding
approaches. To address this issue, this study makes efforts to suggest a
high-accuracy rotation equivariant proximal network that effectively embeds
rotation symmetry priors into the deep unfolding framework. Especially, we
deduce, for the first time, the theoretical equivariant error for such a
designed proximal network with arbitrary layers under arbitrary rotation
degrees. This analysis should be the most refined theoretical conclusion for
such error evaluation to date and is also indispensable for supporting the
rationale behind such networks with intrinsic interpretability requirements.
- Abstract(参考訳): deep unfoldingアプローチは、従来の画像処理モデリングマナーと、より最近のディープラーニング技術とをうまく結びつけるコンピュータビジョンタスクにおいて、大きな注目を集めている。
具体的には、各実装ステップにおけるアルゴリズム演算子と各レイヤ内のネットワークモジュールとの直接対応を確立することで、高い解釈性を持つほぼ「ホワイトボックス」ネットワークアーキテクチャを合理的に構築することができる。
このアーキテクチャでは、近位ネットワークとして知られる近位演算子の事前定義されたコンポーネントのみ手動設定が必要であり、ネットワークはデータ駆動方式で内在的なイメージを自動的に抽出することができる。
現在の深層展開法では、そのような近位ネットワークは一般的にCNNアーキテクチャとして設計されており、その必要性は最近の理論によって証明されている。
すなわち、cnn構造は、様々な種類の画像に対して最も普遍的に保持される構造である、翻訳不変像を実質的に伝達する。
しかし、標準的なCNNベースの近位ネットワークは、回転対称性を前もって捉えるのに必須の制限がある。
これは、深い展開アプローチにおけるさらなるパフォーマンス改善のための大きな余地を残している。
この問題に対処するため,本研究では,深い展開枠組みに回転対称性を効果的に組み込む高精度な回転同変近距離ネットワークを提案する。
特に、任意の回転度以下の任意の層を持つそのような設計された近位ネットワークの理論的等変誤差を初めて推定する。
この分析は、そのような誤り評価の最も洗練された理論的な結論であり、本質的な解釈可能性要件を持つネットワークの背後にある理論的根拠を支持する上でも不可欠である。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Convergence Guarantees of Overparametrized Wide Deep Inverse Prior [1.5362025549031046]
逆優先法(Inverse Priors)は、ランダムな入力をフォワードモデルの下で画像が観察に一致するオブジェクトに変換する、教師なしのアプローチである。
本研究では, 連続時間勾配勾配勾配からトレーニングしたネットワークが, 高確率で指数関数的に高速に収束するオーバーパラメトリゼーション境界を提供する。
この研究は、過度にパラメータ化されたDIPネットワークの理論的理解への第一歩であり、より広い範囲で、逆問題設定におけるニューラルネットワークの理論的理解に関与している。
論文 参考訳(メタデータ) (2023-03-20T16:49:40Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Optimisation & Generalisation in Networks of Neurons [8.078758339149822]
この論文の目的は、人工ニューラルネットワークにおける学習の最適化と一般化理論の基礎を開発することである。
アーキテクチャに依存した一階最適化アルゴリズムを導出するための新しい理論的枠組みを提案する。
ネットワークと個々のネットワークのアンサンブルの間には,新たな対応関係が提案されている。
論文 参考訳(メタデータ) (2022-10-18T18:58:40Z) - The Principles of Deep Learning Theory [19.33681537640272]
この本は、実践的妥当性の深いニューラルネットワークを理解するための効果的な理論アプローチを開発する。
これらのネットワークがトレーニングから非自明な表現を効果的に学習する方法について説明する。
トレーニングネットワークのアンサンブルの有効モデル複雑性を,奥行き比が支配していることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:00:00Z) - Reframing Neural Networks: Deep Structure in Overcomplete
Representations [41.84502123663809]
本稿では,構造化過剰フレームを用いた表現学習のための統一フレームワークであるdeep frame approximationを提案する。
表現一意性と安定性に関連付けられたデータ非依存的なコヒーレンス尺度であるdeep frame potentialとの構造的差異を定量化する。
この超完全表現の確立された理論への接続は、原理化されたディープネットワークアーキテクチャ設計の新たな方向性を示唆している。
論文 参考訳(メタデータ) (2021-03-10T01:15:14Z) - Deep Networks from the Principle of Rate Reduction [32.87280757001462]
この研究は、レート還元と(シフト)不変分類の原理から、現代のディープ(畳み込み)ネットワークを解釈しようとする。
学習した特徴量の減少率を最適化するための基本的反復的漸進勾配法が,多層深層ネットワーク,すなわち1層1回を自然に導くことを示す。
この「ホワイトボックス」ネットワークの全てのコンポーネントは正確な最適化、統計学、幾何学的解釈を持っている。
論文 参考訳(メタデータ) (2020-10-27T06:01:43Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。