論文の概要: Stabilizing Invertible Neural Networks Using Mixture Models
- arxiv url: http://arxiv.org/abs/2009.02994v2
- Date: Mon, 1 Feb 2021 20:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:39:58.543041
- Title: Stabilizing Invertible Neural Networks Using Mixture Models
- Title(参考訳): 混合モデルを用いた可逆ニューラルネットワークの安定化
- Authors: Paul Hagemann and Sebastian Neumayer
- Abstract要約: 本稿では,逆問題の解法を提供する可逆ニューラルネットワークの特性を解析する。
我々の主な焦点は、対応する逆ネットワークのリプシッツ定数の調査と制御である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we analyze the properties of invertible neural networks, which
provide a way of solving inverse problems. Our main focus lies on investigating
and controlling the Lipschitz constants of the corresponding inverse networks.
Without such an control, numerical simulations are prone to errors and not much
is gained against traditional approaches. Fortunately, our analysis indicates
that changing the latent distribution from a standard normal one to a Gaussian
mixture model resolves the issue of exploding Lipschitz constants. Indeed,
numerical simulations confirm that this modification leads to significantly
improved sampling quality in multimodal applications.
- Abstract(参考訳): 本稿では,逆問題の解法を提供する可逆ニューラルネットワークの特性について解析する。
我々の主な焦点は、対応する逆ネットワークのリプシッツ定数の調査と制御である。
このような制御がなければ、数値シミュレーションはエラーになりがちであり、従来のアプローチに比較してはあまり得られない。
幸いなことに, 標準正規分布からガウス混合モデルへの潜在分布の変化は, リプシッツ定数の爆発の問題を解決している。
実際、数値シミュレーションにより、この修正によってマルチモーダルアプリケーションにおけるサンプリング品質が大幅に向上することを確認した。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - Resampling Base Distributions of Normalizing Flows [0.0]
学習された拒絶サンプリングに基づいて,フローを正規化するためのベース分布を導入する。
ログライクリフの最大化と逆Kulback-Leibler分散の最適化の両方を用いて、適切な学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-10-29T14:44:44Z) - Bias-Variance Tradeoffs in Single-Sample Binary Gradient Estimators [100.58924375509659]
ストレートスルー (ST) 推定器はその単純さと効率性から人気を得た。
計算の複雑さを低く保ちながら、STよりも改善するいくつかの手法が提案された。
我々は、トレードオフを理解し、元来主張された特性を検証するために、これらの手法のバイアスとばらつきの理論解析を行う。
論文 参考訳(メタデータ) (2021-10-07T15:16:07Z) - Total Deep Variation: A Stable Regularizer for Inverse Problems [71.90933869570914]
本稿では,データ駆動型汎用全深度変動正規化器について紹介する。
コアでは、畳み込みニューラルネットワークが複数のスケールや連続したブロックで局所的な特徴を抽出する。
我々は多数の画像処理タスクに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-15T21:54:15Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - Parameterizing uncertainty by deep invertible networks, an application
to reservoir characterization [0.9176056742068814]
フルウェーブフォーム逆転に対する不確かさの定量化は、問題の条件の不確かさを確率論的に特徴づける。
本研究では,モデル空間へのガウス的ランダム入力を,実際の後部分布からサンプリングしたかのように「前方」に学習するディープネットワークを特徴とするアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-16T18:37:56Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。