論文の概要: Data-Consistent Learning of Inverse Problems
- arxiv url: http://arxiv.org/abs/2601.12831v1
- Date: Mon, 19 Jan 2026 08:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.814106
- Title: Data-Consistent Learning of Inverse Problems
- Title(参考訳): 逆問題に対するデータ一貫性学習
- Authors: Markus Haltmeier, Gyeongha Hwang,
- Abstract要約: 逆問題は本質的に不適切であり、不明瞭さと不安定さに悩まされている。
DCネットワークは、ネットワークアーキテクチャ内の測定モデルを強制することによって、このギャップに対処する。
このアプローチは、データ駆動学習の表現力を活用しながら、古典的なスキームの理論的信頼性を保っている。
- 参考スコア(独自算出の注目度): 3.160733772636691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverse problems are inherently ill-posed, suffering from non-uniqueness and instability. Classical regularization methods provide mathematically well-founded solutions, ensuring stability and convergence, but often at the cost of reduced flexibility or visual quality. Learned reconstruction methods, such as convolutional neural networks, can produce visually compelling results, yet they typically lack rigorous theoretical guarantees. DC (DC) networks address this gap by enforcing the measurement model within the network architecture. In particular, null-space networks combined with a classical regularization method as an initial reconstruction define a convergent regularization method. This approach preserves the theoretical reliability of classical schemes while leveraging the expressive power of data-driven learning, yielding reconstructions that are both accurate and visually appealing.
- Abstract(参考訳): 逆問題は本質的に不適切であり、不明瞭さと不安定さに悩まされている。
古典的な正規化法は、安定性と収束を確保するために数学的にしっかりとした解決策を提供するが、しばしば柔軟性や視覚的品質の低下を犠牲にしている。
畳み込みニューラルネットワークのような学習された再構成手法は視覚的に説得力のある結果をもたらすが、通常は厳密な理論的保証を欠いている。
DC(DC)ネットワークは、ネットワークアーキテクチャ内の測定モデルを強制することによって、このギャップに対処する。
特に、初期再構成として古典正規化法と組み合わされたヌル空間ネットワークは収束正規化法を定義する。
このアプローチは、データ駆動学習の表現力を活用しながら古典的スキームの理論的信頼性を保ち、正確かつ視覚的に魅力的な再構築をもたらす。
関連論文リスト
- Graph Neural Regularizers for PDE Inverse Problems [62.49743146797144]
本稿では,偏微分方程式(PDE)によって支配される多種多様な不測の逆問題を解くための枠組みを提案する。
有限要素法(FEM)を用いて前方問題の数値解法
我々は、物理に着想を得たグラフニューラルネットワークを学習正規化器として採用し、標準アプローチの頑健で解釈可能な、一般化可能な代替手段を提供する。
論文 参考訳(メタデータ) (2025-10-23T21:43:25Z) - Out-of-distribution robustness for multivariate analysis via causal regularisation [4.487663958743944]
本稿では,分散シフトに対するロバスト性を確保するために,因果性に根ざした正規化戦略を提案する。
アンカー回帰フレームワークに基づいて、古典アルゴリズムの損失関数に単純な正規化項を組み込む方法を示す。
本フレームワークでは,損失関数と正規化戦略との整合性を効率よく検証することができる。
論文 参考訳(メタデータ) (2024-03-04T09:21:10Z) - Convex Latent-Optimized Adversarial Regularizers for Imaging Inverse
Problems [8.33626757808923]
本稿では,新しいデータ駆動型パラダイムであるConvex Latent-d Adrial Regularizers (CLEAR)を紹介する。
CLEARは、ディープラーニング(DL)と変分正規化の融合を表す。
本手法は従来型のデータ駆動手法と従来型の正規化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-17T12:06:04Z) - Convergent Data-driven Regularizations for CT Reconstruction [41.791026380947685]
本研究では,データから線形正則化法を学習する上で,単純だが相変わらず収束するアプローチについて検討する。
このような手法が収束正則化手法となること、およびそれらが提供する再構成が訓練されたトレーニングデータよりも典型的にスムーズであることを証明する。
論文 参考訳(メタデータ) (2022-12-14T17:34:03Z) - Deep unfolding as iterative regularization for imaging inverse problems [6.485466095579992]
ディープ展開法は、反復アルゴリズムを通じてディープニューラルネットワーク(DNN)の設計を導く。
展開されたDNNが安定して収束することを証明する。
提案手法が従来の展開法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-24T07:38:47Z) - On the generalization of learning algorithms that do not converge [54.122745736433856]
ディープラーニングの一般化解析は、訓練が一定の点に収束すると仮定するのが一般的である。
最近の結果は、実際には勾配降下に最適化されたディープニューラルネットワークの重みは、しばしば無限に振動することを示している。
論文 参考訳(メタデータ) (2022-08-16T21:22:34Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z) - Deep synthesis regularization of inverse problems [0.0]
本稿では,非線形合成演算子としてニューラルネットワークを用いた深部合成正則化(DESYRE)を提案する。
提案手法は、利用可能なトレーニングデータに対して十分に調整可能な深層学習の利点を利用することができる。
本稿では,解析合成シーケンスの一部として,適切な学習戦略とともに合成ネットワークを構築するための戦略を提案する。
論文 参考訳(メタデータ) (2020-02-01T06:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。