論文の概要: VINA: Variational Invertible Neural Architectures
- arxiv url: http://arxiv.org/abs/2602.20480v1
- Date: Tue, 24 Feb 2026 02:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.580131
- Title: VINA: Variational Invertible Neural Architectures
- Title(参考訳): VINA: 変分可逆ニューラルネットワーク
- Authors: Shubhanshu Shekhar, Mohammad Javad Khojasteh, Ananya Acharya, Tony Tohme, Kamal Youcef-Toumi,
- Abstract要約: 変分無教師付き損失関数に基づくNNとNFの統一フレームワークを提案する。
我々は、理論的な性能保証、NNの後方精度の定量化、NFの分布精度を導出する。
本研究は,海洋音響逆転問題に対する我々のアプローチの有効性を実証することによる結論である。
- 参考スコア(独自算出の注目度): 11.068746821872756
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The distinctive architectural features of normalizing flows (NFs), notably bijectivity and tractable Jacobians, make them well-suited for generative modeling. Invertible neural networks (INNs) build on these principles to address supervised inverse problems, enabling direct modeling of both forward and inverse mappings. In this paper, we revisit these architectures from both theoretical and practical perspectives and address a key gap in the literature: the lack of theoretical guarantees on approximation quality under realistic assumptions, whether for posterior inference in INNs or for generative modeling with NFs. We introduce a unified framework for INNs and NFs based on variational unsupervised loss functions, inspired by analogous formulations in related areas such as generative adversarial networks (GANs) and the Precision-Recall divergence for training normalizing flows. Within this framework, we derive theoretical performance guarantees, quantifying posterior accuracy for INNs and distributional accuracy for NFs, under assumptions that are weaker and more practically realistic than those used in prior work. Building on these theoretical results, we conduct extensive case studies to distill general design principles and practical guidelines. We conclude by demonstrating the effectiveness of our approach on a realistic ocean-acoustic inversion problem.
- Abstract(参考訳): 正規化フロー(NFs)の特有なアーキテクチャ的特徴、特に単射性とトラクタブル・ジャコビアン(英語版)は、生成的モデリングに適している。
非可逆ニューラルネットワーク(INN)は、これらの原理に基づいて、教師付き逆問題に対処し、前方および逆マッピングの両方の直接モデリングを可能にする。
本稿では,これらのアーキテクチャを理論的・実践的両面から再検討し,現実的な前提下での近似品質に関する理論的保証の欠如,INNにおける後部推論,NFを用いた生成モデルなど,文学における重要なギャップに対処する。
本稿では、GAN(Generative Adversarial Network)や正規化フローのトレーニングのためのPrecision-Recall divergenceといった関連分野における類似の定式化から着想を得た、変分非教師付き損失関数に基づくIGNとNFの統一フレームワークを提案する。
この枠組みでは、理論的な性能保証、INNの後方精度の定量化、NFの分布精度を導出する。
これらの理論結果に基づいて, 一般設計原則と実践指針を蒸留する広範囲な事例研究を行っている。
本研究は,海洋音響逆転問題に対する我々のアプローチの有効性を実証することによる結論である。
関連論文リスト
- Conjugate Learning Theory: Uncovering the Mechanisms of Trainability and Generalization in Deep Neural Networks [0.0]
凸共役双対性に基づく共役学習理論フレームワークを開発し,この学習性特性を特徴付ける。
我々は,ミニバッチ降下(SGD)による深層ニューラルネットワーク(DNN)のトレーニングが,経験的リスクのグローバルな最適化を実現することを実証した。
条件付き一般化エントロピー測度に基づく一般化誤差に関する決定論的および確率的境界を導出する。
論文 参考訳(メタデータ) (2026-02-18T04:26:55Z) - Deep Neural Networks as Iterated Function Systems and a Generalization Bound [2.7920304852537536]
2つの重要なディープアーキテクチャは、場所に依存したIFSとみなすことができるか、あるいは正統に関連付けられるかを示す。
データ分布と画像間のコラージュ型近似誤差を制御する生成モデリングのためのワッサーシュタイン境界を導出する。
論文 参考訳(メタデータ) (2026-01-27T07:32:49Z) - Towards A Unified PAC-Bayesian Framework for Norm-based Generalization Bounds [63.47271262149291]
PAC-Bayesianノルムに基づく一般化のための統一的なフレームワークを提案する。
提案手法の鍵となるのは、構造的重み摂動に関してネットワーク出力を定量化する感度行列である。
我々は、いくつかの既存のPAC-ベイジアン結果を特殊ケースとして回復する一般化境界の族を導出する。
論文 参考訳(メタデータ) (2026-01-13T00:42:22Z) - ProPINN: Demystifying Propagation Failures in Physics-Informed Neural Networks [71.02216400133858]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法において高い期待を得た
以前の研究では、PINNの伝播不良現象が観察された。
本稿では,伝播不良とその根本原因に関する公式かつ詳細な研究について述べる。
論文 参考訳(メタデータ) (2025-02-02T13:56:38Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - On the Disconnect Between Theory and Practice of Neural Networks: Limits of the NTK Perspective [9.753461673117362]
ニューラル・タンジェント・カーネル(NTK)は、大規模ニューラルネットワークの振る舞いを記述する理論的枠組みとして注目されている。
カーネル体制への収束率の定量化の現在の結果は、これらの利点を利用するには、それらよりも桁違いに広いアーキテクチャが必要であることを示唆している。
本研究は,大規模建築物の実用的関連挙動を予測するための限界条件について検討する。
論文 参考訳(メタデータ) (2023-09-29T20:51:24Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Extended critical regimes of deep neural networks [0.0]
重み付き重みは、微調整パラメータを使わずに、拡張臨界状態の出現を可能にすることを示す。
この拡張クリティカルレジームでは、DNNは層間のリッチで複雑な伝播ダイナミクスを示す。
効率的なニューラルアーキテクチャの設計のための理論的ガイドを提供する。
論文 参考訳(メタデータ) (2022-03-24T10:15:50Z) - A Theoretical Framework for Target Propagation [75.52598682467817]
我々は、バックプロパゲーション(BP)の代替として人気があるが、まだ完全には理解されていないターゲット伝搬(TP)を解析する。
提案理論は,TPがガウス・ニュートン最適化と密接に関係していることを示し,BPとは大きく異なる。
我々は,フィードバックウェイトトレーニングを改善する新しいリコンストラクション損失を通じて,この問題に対する第1の解決策を提供する。
論文 参考訳(メタデータ) (2020-06-25T12:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。