論文の概要: Sliced-Wasserstein normalizing flows: beyond maximum likelihood training
- arxiv url: http://arxiv.org/abs/2207.05468v1
- Date: Tue, 12 Jul 2022 11:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 21:37:43.050514
- Title: Sliced-Wasserstein normalizing flows: beyond maximum likelihood training
- Title(参考訳): Sliced-Wasserstein正規化フロー:最大極大トレーニングを超えて
- Authors: Florentin Coeurdoux and Nicolas Dobigeon and Pierre Chainais
- Abstract要約: 正規化フローは通常、非現実的なデータを生成する傾向を含むいくつかの欠点に悩まされる。
本稿では,最大極大原理(MLE)とスライス・ワッサーシュタイン距離を組み合わせたハイブリッド目的関数に基づく新しいトレーニングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 12.91637880428221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their advantages, normalizing flows generally suffer from several
shortcomings including their tendency to generate unrealistic data (e.g.,
images) and their failing to detect out-of-distribution data. One reason for
these deficiencies lies in the training strategy which traditionally exploits a
maximum likelihood principle only. This paper proposes a new training paradigm
based on a hybrid objective function combining the maximum likelihood principle
(MLE) and a sliced-Wasserstein distance. Results obtained on synthetic toy
examples and real image data sets show better generative abilities in terms of
both likelihood and visual aspects of the generated samples. Reciprocally, the
proposed approach leads to a lower likelihood of out-of-distribution data,
demonstrating a greater data fidelity of the resulting flows.
- Abstract(参考訳): それらの利点にもかかわらず、正規化フローは一般に非現実的なデータ(例えば画像)を生成する傾向や、分布外データの検出に失敗する傾向など、いくつかの欠点に悩まされる。
これらの欠陥の1つの理由は、伝統的に最大度原理のみを利用するトレーニング戦略にある。
本稿では,mle(maximum likelihood principle)とslicd-wasserstein距離を組み合わせたハイブリッド目的関数に基づく新しい学習パラダイムを提案する。
合成玩具の例と実画像データセットから得られた結果は、生成したサンプルの確率と視覚的な側面の両方において、より良い生成能力を示す。
逆に,提案手法は分布外データの可能性が低くなり,結果の流れの忠実度が向上することを示す。
関連論文リスト
- Fine-tuning with Very Large Dropout [4.357691364971652]
今日では、機械学習の実践が、トレーニングデータとテストデータが同じ分布に従うという考えと互換性があるというふりは不可能である。
何人かの著者が最近、複数のデータ分散に関わるシナリオが、リッチな表現によってどのように最も役立っているかを示すためにアンサンブル技術を使用している。
この貢献は、このようなリッチな表現を得るために、アンサンブルの代わりに非常に高いドロップアウト率を使用することを調査する。
論文 参考訳(メタデータ) (2024-03-01T19:50:22Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data [1.7474352892977458]
道路走行シーンとリモートセンシング画像における分布外異常の検出方法を示す。
我々は,カバレッジ指向学習の目的と異なる解像度でサンプルを生成する能力により,共同で訓練された正規化フローを活用する。
結果として得られたモデルは、道路走行シーンとリモートセンシング画像におけるアウト・オブ・ディストリビューション検出のためのベンチマークに、新たな技術状況を設定した。
論文 参考訳(メタデータ) (2021-12-23T20:35:10Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Training Deep Normalizing Flow Models in Highly Incomplete Data
Scenarios with Prior Regularization [13.985534521589257]
ハイパウシティシナリオにおけるデータ分布の学習を容易にする新しいフレームワークを提案する。
提案手法は,不完全データから学習過程を協調最適化タスクとして行うことに由来する。
論文 参考訳(メタデータ) (2021-04-03T20:57:57Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Learning Energy-Based Models by Diffusion Recovery Likelihood [61.069760183331745]
本稿では,エネルギーベースモデルから気軽に学習・サンプルできる拡散回復可能性法を提案する。
学習後、ガウスの白色雑音分布から初期化するサンプリングプロセスにより合成画像を生成することができる。
非条件 CIFAR-10 では,本手法は FID 9.58 と開始スコア 8.30 を達成する。
論文 参考訳(メタデータ) (2020-12-15T07:09:02Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z) - Robust model training and generalisation with Studentising flows [22.757298187704745]
本稿では、ロバストな(特に耐性のある)統計からの洞察に基づいて、これらの手法をさらに改善する方法について論じる。
本稿では, ガウス分布の簡易なドロップイン置換として, 太い尾の潜伏分布を持つフローベースモデルを提案する。
いくつかの異なるデータセットの実験により、提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2020-06-11T16:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。