論文の概要: Semi-Supervised Learning with Normalizing Flows
- arxiv url: http://arxiv.org/abs/1912.13025v1
- Date: Mon, 30 Dec 2019 17:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:17:19.391133
- Title: Semi-Supervised Learning with Normalizing Flows
- Title(参考訳): 正規化フローを用いた半教師付き学習
- Authors: Pavel Izmailov, Polina Kirichenko, Marc Finzi, Andrew Gordon Wilson
- Abstract要約: FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
- 参考スコア(独自算出の注目度): 54.376602201489995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing flows transform a latent distribution through an invertible
neural network for a flexible and pleasingly simple approach to generative
modelling, while preserving an exact likelihood. We propose FlowGMM, an
end-to-end approach to generative semi supervised learning with normalizing
flows, using a latent Gaussian mixture model. FlowGMM is distinct in its
simplicity, unified treatment of labelled and unlabelled data with an exact
likelihood, interpretability, and broad applicability beyond image data. We
show promising results on a wide range of applications, including AG-News and
Yahoo Answers text data, tabular data, and semi-supervised image
classification. We also show that FlowGMM can discover interpretable structure,
provide real-time optimization-free feature visualizations, and specify well
calibrated predictive distributions.
- Abstract(参考訳): 正規化フローは、可逆性ニューラルネットワークを通じて潜在分布を変換し、正確な確率を保ちながら、生成モデリングに対する柔軟で快くシンプルなアプローチを実現する。
本稿では,フローの正規化を伴う生成半教師付き学習のエンドツーエンドアプローチであるFlowGMMを提案する。
flowgmmは単純さ、ラベル付きデータとラベル付きデータの統一的な扱い、正確な可能性、解釈可能性、画像データを超えた幅広い適用性において異なる。
我々はAG-NewsやYahoo Answersのテキストデータ、表データ、半教師付き画像分類など、幅広いアプリケーションにおいて有望な結果を示す。
また、FlowGMMは解釈可能な構造を発見し、リアルタイムな最適化不要な特徴可視化を提供し、よく校正された予測分布を指定できることを示す。
関連論文リスト
- Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - VQ-Flows: Vector Quantized Local Normalizing Flows [2.7998963147546148]
データ多様体上の「チャートマップ」として局所正規化フローの混合を学習するための新しい統計フレームワークを導入する。
本フレームワークは, 正規化フローのシグネチャ特性を保ちながら, 最近の手法の表現性を向上し, 正確な密度評価を行う。
論文 参考訳(メタデータ) (2022-03-22T09:22:18Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Flows for simultaneous manifold learning and density estimation [12.451050883955071]
多様体学習フロー(M-flow)は、多様体構造を持つデータセットをより忠実に表現する。
M-フローはデータ多様体を学習し、周囲のデータ空間の標準フローよりも優れた推論を可能にする。
論文 参考訳(メタデータ) (2020-03-31T02:07:48Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。