論文の概要: Solving Inverse Problems with Model Mismatch using Untrained Neural
Networks within Model-based Architectures
- arxiv url: http://arxiv.org/abs/2403.04847v1
- Date: Thu, 7 Mar 2024 19:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:58:17.276243
- Title: Solving Inverse Problems with Model Mismatch using Untrained Neural
Networks within Model-based Architectures
- Title(参考訳): モデルベースアーキテクチャにおける未学習ニューラルネットワークを用いたモデルミスマッチによる逆問題の解法
- Authors: Peimeng Guan, Naveed Iqbal, Mark A. Davenport, Mudassir Masood
- Abstract要約: モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
実験では、アーティファクトの削除と3つの異なるアプリケーションにわたる詳細の保存において、大幅な品質改善が示されている。
- 参考スコア(独自算出の注目度): 15.896809554085973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-based deep learning methods such as \emph{loop unrolling} (LU) and
\emph{deep equilibrium model} (DEQ) extensions offer outstanding performance in
solving inverse problems (IP). These methods unroll the optimization iterations
into a sequence of neural networks that in effect learn a regularization
function from data. While these architectures are currently state-of-the-art in
numerous applications, their success heavily relies on the accuracy of the
forward model. This assumption can be limiting in many physical applications
due to model simplifications or uncertainties in the apparatus. To address
forward model mismatch, we introduce an untrained forward model residual block
within the model-based architecture to match the data consistency in the
measurement domain for each instance. We propose two variants in well-known
model-based architectures (LU and DEQ) and prove convergence under mild
conditions. The experiments show significant quality improvement in removing
artifacts and preserving details across three distinct applications,
encompassing both linear and nonlinear inverse problems. Moreover, we highlight
reconstruction effectiveness in intermediate steps and showcase robustness to
random initialization of the residual block and a higher number of iterations
during evaluation.
- Abstract(参考訳): モデルに基づく深層学習手法である「emph{loop unrolling}」(LU)や「emph{deep equilibrium model}」(DEQ)は、逆問題(IP)の解法において優れた性能を提供する。
これらの手法は最適化イテレーションをニューラルネットワークのシーケンスに展開し、実際にデータから正規化関数を学習する。
これらのアーキテクチャは現在多くのアプリケーションで最先端のアーキテクチャであるが、その成功はフォワードモデルの精度に大きく依存している。
この仮定は多くの物理的応用において、装置のモデルの単純化や不確実性のために制限される。
フォワードモデルミスマッチに対処するために、各インスタンスの計測領域におけるデータ一貫性を一致させるために、モデルベースアーキテクチャ内でトレーニングされていないフォワードモデル残差ブロックを導入する。
本稿では,よく知られたモデルベースアーキテクチャ (LU と DEQ) の2つの変種を提案する。
実験は, アーティファクトの除去と, 非線形逆問題と非線形逆問題の両方を含む3つの異なる応用の詳細な保存において, 大幅な品質向上を示した。
さらに,中間段階における再構築の有効性を強調し,評価中の残差ブロックのランダム初期化やイテレーション数の増加に対するロバスト性を示す。
関連論文リスト
- Deep learning for model correction of dynamical systems with data scarcity [0.0]
本稿では,少ない高忠実度データセットのみを用いて,既存の力学系モデルを修正するためのディープラーニングフレームワークを提案する。
我々は、高忠実度データの量が非常に小さく、既存のデータ駆動モデリング手法のほとんどを適用できない場合に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-23T14:33:11Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Direct Estimation of Parameters in ODE Models Using WENDy: Weak-form
Estimation of Nonlinear Dynamics [0.0]
ODE の非線形システムに対するモデルパラメータを推定する Weak-form Estimation of Dynamics (WENDy) 手法を提案する。
WENDyは正確な推定値を計算し、大きな(生物学的に関係のある)測定ノイズに対して堅牢である。
個体群生物学,神経科学,生化学の共通モデルにおいて,WENDyを用いてパラメータを推定することにより,高いロバスト性と計算効率を示す。
論文 参考訳(メタデータ) (2023-02-26T08:49:34Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Git Re-Basin: Merging Models modulo Permutation Symmetries [3.5450828190071655]
提案手法は,大規模ネットワークに適合する簡単なアルゴリズムを実例で示す。
我々は、独立に訓練されたモデル間のゼロモード接続の最初のデモ(私たちの知る限り)を実演する。
また、線形モード接続仮説の欠点についても論じる。
論文 参考訳(メタデータ) (2022-09-11T10:44:27Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。