論文の概要: Deep learning methods for inverse problems using connections between proximal operators and Hamilton-Jacobi equations
- arxiv url: http://arxiv.org/abs/2512.23829v1
- Date: Mon, 29 Dec 2025 19:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.189565
- Title: Deep learning methods for inverse problems using connections between proximal operators and Hamilton-Jacobi equations
- Title(参考訳): 近似作用素とハミルトン・ヤコビ方程式間の接続を用いた逆問題に対する深層学習法
- Authors: Oluwatosin Akande, Gabriel P. Langlois, Akwum Onwunta,
- Abstract要約: 逆問題は、ノイズの多いデータからモデルパラメータを復元しようとする重要な数学的問題である。
本稿では, 近似演算子とニューラル偏微分方程式(HJDE)の接続を利用して, 先行学習のための新しいディープラーニングアーキテクチャを開発することを提案する。
- 参考スコア(独自算出の注目度): 0.8749675983608171
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Inverse problems are important mathematical problems that seek to recover model parameters from noisy data. Since inverse problems are often ill-posed, they require regularization or incorporation of prior information about the underlying model or unknown variables. Proximal operators, ubiquitous in nonsmooth optimization, are central to this because they provide a flexible and convenient way to encode priors and build efficient iterative algorithms. They have also recently become key to modern machine learning methods, e.g., for plug-and-play methods for learned denoisers and deep neural architectures for learning priors of proximal operators. The latter was developed partly due to recent work characterizing proximal operators of nonconvex priors as subdifferential of convex potentials. In this work, we propose to leverage connections between proximal operators and Hamilton-Jacobi partial differential equations (HJ PDEs) to develop novel deep learning architectures for learning the prior. In contrast to other existing methods, we learn the prior directly without recourse to inverting the prior after training. We present several numerical results that demonstrate the efficiency of the proposed method in high dimensions.
- Abstract(参考訳): 逆問題は、ノイズの多いデータからモデルパラメータを復元しようとする重要な数学的問題である。
逆問題はしばしば悪用されるため、基礎となるモデルや未知の変数に関する事前情報を正規化または組み込む必要がある。
非滑らかな最適化においてユビキタスな近似演算子は、事前をエンコードし、効率的な反復アルゴリズムを構築するための柔軟で便利な方法を提供するため、この点の中心である。
最近では、学習したデノイザのためのプラグアンドプレイ手法や、近親演算子の事前学習のためのディープニューラルアーキテクチャといった、現代的な機械学習手法の鍵ともなっている。
後者は、非凸前駆体の近位作用素を凸ポテンシャルの分微分として特徴付ける最近の研究によって部分的に開発された。
本研究では, 近似演算子とハミルトン・ヤコビ偏微分方程式(HJ PDE)の接続を利用して, 先行学習のための新しいディープラーニングアーキテクチャを開発することを提案する。
他の既存の方法とは対照的に、トレーニング後の事前を逆転させることなく、事前を直接学習する。
提案手法の有効性を高次元で示す数値計算結果を提案する。
関連論文リスト
- Efficient Parametric SVD of Koopman Operator for Stochastic Dynamical Systems [51.54065545849027]
クープマン作用素は非線形力学系を解析するための原理的なフレームワークを提供する。
VAMPnet と DPNet はクープマン作用素の主特異部分空間を学ぶために提案されている。
我々は、クープマン作用素のトップ$kの特異関数を学ぶためのスケーラブルで概念的にシンプルな方法を提案する。
論文 参考訳(メタデータ) (2025-07-09T18:55:48Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Neural Improvement Heuristics for Graph Combinatorial Optimization
Problems [49.85111302670361]
本稿では,ノード,エッジ,あるいはその両方に情報をエンコードするグラフベースの問題を扱う新しいニューラル改善(NI)モデルを提案する。
提案モデルは,各地区の操作の選択を誘導する丘登頂に基づくアルゴリズムの基本的な構成要素として機能する。
論文 参考訳(メタデータ) (2022-06-01T10:35:29Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Model-Aware Regularization For Learning Approaches To Inverse Problems [11.314492463814817]
本稿では,逆問題に適用可能なディープラーニング手法の一般化誤差の解析を行う。
本稿では、フォワードマップの知識を活用してネットワークの一般化を改善する「プラグ・アンド・プレイ」レギュラーを提案する。
我々は,他の最先端手法に対するモデル認識型ディープラーニングアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T21:59:03Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。