論文の概要: Deceptron: Learned Local Inverses for Fast and Stable Physics Inversion
- arxiv url: http://arxiv.org/abs/2511.21076v1
- Date: Wed, 26 Nov 2025 05:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.978626
- Title: Deceptron: Learned Local Inverses for Fast and Stable Physics Inversion
- Title(参考訳): Deceptron: 高速で安定な物理インバージョンのためのローカル逆解析
- Authors: Aaditya L. Kachhadiya,
- Abstract要約: 物理科学における逆問題はしばしば入力空間において不条件であり、ステップサイズに敏感である。
微分可能フォワードサロゲートの局所的逆数学習を行う軽量双方向モジュールであるDeceptronを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inverse problems in the physical sciences are often ill-conditioned in input space, making progress step-size sensitive. We propose the Deceptron, a lightweight bidirectional module that learns a local inverse of a differentiable forward surrogate. Training combines a supervised fit, forward-reverse consistency, a lightweight spectral penalty, a soft bias tie, and a Jacobian Composition Penalty (JCP) that encourages $J_g(f(x))\,J_f(x)\!\approx\!I$ via JVP/VJP probes. At solve time, D-IPG (Deceptron Inverse-Preconditioned Gradient) takes a descent step in output space, pulls it back through $g$, and projects under the same backtracking and stopping rules as baselines. On Heat-1D initial-condition recovery and a Damped Oscillator inverse problem, D-IPG reaches a fixed normalized tolerance with $\sim$20$\times$ fewer iterations on Heat and $\sim$2-3$\times$ fewer on Oscillator than projected gradient, competitive in iterations and cost with Gauss-Newton. Diagnostics show JCP reduces a measured composition error and tracks iteration gains. We also preview a single-scale 2D instantiation, DeceptronNet (v0), that learns few-step corrections under a strict fairness protocol and exhibits notably fast convergence.
- Abstract(参考訳): 物理科学における逆問題はしばしば入力空間において不条件であり、ステップサイズに敏感である。
微分可能フォワードサロゲートの局所的逆数学習を行う軽量双方向モジュールであるDeceptronを提案する。
トレーニングには、教師付きフィット、フォワード-リバース一貫性、軽量なスペクトルペナルティ、ソフトバイアスネクタイ、J_g(f(x))\,J_f(x)\!
\approx\!
I$ via JVP/VJP probes
解決時には、D-IPG (Deceptron Inverse-Preconditioned Gradient) が出力空間から降下し、$g$まで引き戻す。
Heat-1D初期条件回復とDamped Oscillator逆問題では、D-IPGは固定された正規化耐性に到達し、$\sim$20$\times$Heatと$\sim$2-3$\times$Oscillatorは予測勾配よりも小さい。
診断は、JCPが測定済みのコンポジションエラーを減らし、イテレーションの利得を追跡することを示している。
また、厳密な公正性プロトコルの下で数ステップの修正を学習し、顕著に高速な収束を示す、シングルスケールの2Dインスタンス化DeceptronNet (v0) をプレビューする。
関連論文リスト
- INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers [61.84396402100827]
本稿では,学習した補正を支配方程式に統合する間接ニューラルコレクタ(mathrmINC$)を提案する。
$mathrmINC$は、$t-1 + L$の順番でエラー増幅を減らし、$t$はタイムステップ、$L$はリプシッツ定数である。
大規模なベンチマークで$mathrmINC$をテストし、1Dカオスシステムから3D乱流まで、多くの異なる解法、神経バックボーン、テストケースをカバーした。
論文 参考訳(メタデータ) (2025-11-16T20:14:28Z) - Dual Natural Gradient Descent for Scalable Training of Physics-Informed Neural Networks [0.7562843347215286]
物理インフォームドニューラルネットワーク(PINN)の学習を著しく促進する自然段階的手法
textitDual Natural Gradient Descent (D-NGD)を紹介する。
D-NGDは、残留空間におけるガウス-ニュートンステップを計算し、ジオデシック加速度補正を無視可能な余剰コストで拡張し、モデスト$m$とNystrom-preconditioned conjugate-gradient solverをより大きい$m$で提供する。
論文 参考訳(メタデータ) (2025-05-27T16:27:23Z) - Online Learning and Information Exponents: On The Importance of Batch size, and Time/Complexity Tradeoffs [24.305423716384272]
我々は,1パス勾配勾配(SGD)を有する2層ニューラルネットワークの繰り返し時間に対するバッチサイズの影響について検討した。
大規模なバッチで勾配更新を行うことで、サンプル全体の複雑さを変えることなく、トレーニング時間を最小化できることが示される。
低次元常微分方程式(ODE)のシステムにより、トレーニングの進捗を追跡できることを示す。
論文 参考訳(メタデータ) (2024-06-04T09:44:49Z) - Training \beta-VAE by Aggregating a Learned Gaussian Posterior with a
Decoupled Decoder [0.553073476964056]
VAEトレーニングの現在の実践は、しばしば、再構成の忠実さと、潜伏空間の連続性$/$$分散の間のトレードオフをもたらす。
本稿では,2つの損失の対角的機構の直観と注意深い解析を行い,VAEを訓練するための簡易で効果的な2段階法を提案する。
本手法は, 3次元頭蓋骨再建と形状完成を目的とした医療データセットを用いて評価し, 提案手法を用いてトレーニングしたVAEの有望な生成能力を示す。
論文 参考訳(メタデータ) (2022-09-29T13:49:57Z) - Erasure qubits: Overcoming the $T_1$ limit in superconducting circuits [105.54048699217668]
振幅減衰時間である$T_phi$は、超伝導回路の量子忠実度を制限する主要な要因として長い間存在してきた。
本稿では、振幅減衰誤差を検出して消去誤差に変換する方法で、量子ビットを設計し、従来のT_phi$制限を克服する手法を提案する。
論文 参考訳(メタデータ) (2022-08-10T17:39:21Z) - Degradation-Aware Unfolding Half-Shuffle Transformer for Spectral
Compressive Imaging [142.11622043078867]
圧縮画像と物理マスクからパラメータを推定し,これらのパラメータを用いて各イテレーションを制御する,DAUF(Degradation-Aware Unfolding Framework)を提案する。
HST を DAUF に接続することにより,HSI 再構成のための変換器の深部展開法であるデグレーション・アウェア・アンフォールディング・ハーフシャッフル変換器 (DAUHST) を確立した。
論文 参考訳(メタデータ) (2022-05-20T11:37:44Z) - Quantum Error Correction with Gauge Symmetries [69.02115180674885]
Lattice Gauge Theories (LGT) の量子シミュレーションは、物理セクターと非物理セクターの両方を含む拡大されたヒルベルト空間上でしばしば定式化される。
本稿では,位相フリップ誤り訂正符号とガウス法則を組み合わせることで,そのような冗長性を利用する簡易なフォールトトレラント法を提案する。
論文 参考訳(メタデータ) (2021-12-09T19:29:34Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。