論文の概要: Adversarially-learned Inference via an Ensemble of Discrete Undirected
Graphical Models
- arxiv url: http://arxiv.org/abs/2007.05033v3
- Date: Thu, 22 Oct 2020 05:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:13:36.281106
- Title: Adversarially-learned Inference via an Ensemble of Discrete Undirected
Graphical Models
- Title(参考訳): 離散非方向図形モデルの集合による逆学習推論
- Authors: Adarsh K. Jeewajee, Leslie P. Kaelbling
- Abstract要約: 我々は、無限大のグラフィカルモデル(AGM)のアンサンブルを生成する推論非依存の敵対的トレーニングフレームワークを提案する。
AGMは、GibsNetやVAEACといったディープニューラルネットワークと同様に、EGMと比較して、目に見えない推論タスクに対して、はるかに優れた一般化を示している。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Undirected graphical models are compact representations of joint probability
distributions over random variables. To solve inference tasks of interest,
graphical models of arbitrary topology can be trained using empirical risk
minimization. However, to solve inference tasks that were not seen during
training, these models (EGMs) often need to be re-trained. Instead, we propose
an inference-agnostic adversarial training framework which produces an
infinitely-large ensemble of graphical models (AGMs). The ensemble is optimized
to generate data within the GAN framework, and inference is performed using a
finite subset of these models. AGMs perform comparably with EGMs on inference
tasks that the latter were specifically optimized for. Most importantly, AGMs
show significantly better generalization to unseen inference tasks compared to
EGMs, as well as deep neural architectures like GibbsNet and VAEAC which allow
arbitrary conditioning. Finally, AGMs allow fast data sampling, competitive
with Gibbs sampling from EGMs.
- Abstract(参考訳): 無向グラフィカルモデルは確率変数上の合同確率分布のコンパクト表現である。
興味のある推論タスクを解決するために、任意のトポロジのグラフィカルモデルを経験的リスク最小化を用いて訓練することができる。
しかしながら、トレーニング中に見られなかった推論タスクを解決するためには、これらのモデル(EGM)を再訓練する必要があることが多い。
代わりに、無限大のグラフィカルモデル群(agms)を生成する推論非依存な逆訓練フレームワークを提案する。
アンサンブルはGANフレームワーク内でデータを生成するよう最適化され、これらのモデルの有限部分集合を用いて推論が行われる。
AGMは、後者が特に最適化された推論タスクにおいて、EGMと互換性がある。
最も重要な点として、AGMは、任意の条件付けを可能にするGibbsNetやVAEACといったディープニューラルネットワークと同様に、EGMと比較して、見当たらない推論タスクに対するはるかに優れた一般化を示している。
最後に、AGMは高速なデータサンプリングを可能にし、EGMからのGibbsサンプリングと競合する。
関連論文リスト
- Gaussian Mixture Models Based Augmentation Enhances GNN Generalization [22.04352144324223]
本稿では,Rademacher複雑性を用いた理論的枠組みを導入し,一般化誤差を計算した。
このフレームワークは、グラフデータ拡張(GDA)アルゴリズムであるGMM-GDAの設計を通知する。
論文 参考訳(メタデータ) (2024-11-13T14:26:04Z) - Toward the Identifiability of Comparative Deep Generative Models [7.5479347719819865]
比較深部生成モデル(DGM)における識別可能性の理論を提案する。
これらのモデルは、一般的な混合関数のクラスにおいて識別性に欠けるが、混合関数が断片的アフィンであるときに驚くほど識別可能であることを示す。
また, モデルミス種別の影響についても検討し, 従来提案されていた比較DGMの正則化手法が, 潜伏変数の数が事前に分かっていない場合に, 識別可能性を高めることを実証的に示す。
論文 参考訳(メタデータ) (2024-01-29T06:10:54Z) - Wasserstein Convergence Guarantees for a General Class of Score-Based
Generative Models [9.47767039367222]
スコアベース生成モデル(SGMs)は、多くの応用において最先端の性能を持つ、近年の深層生成モデルである。
2-ワッサーシュタイン距離におけるSGMの一般クラスに対する収束保証を確立し、正確なスコア推定と円滑な対数凹データ分布を仮定する。
本稿では,CIFAR-10上での非条件画像生成のために,異なる前方プロセスを用いたSGM実験を行った。
論文 参考訳(メタデータ) (2023-11-18T07:53:22Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Training and Inference on Any-Order Autoregressive Models the Right Way [97.39464776373902]
Any-Order Autoregressive Models (AO-ARMs) のファミリは、任意の条件付きタスクにおいてブレークスルーのパフォーマンスを示している。
我々は、AO-ARMの以前の定式化に対して行うべき重要な改善について確認する。
本手法はトラクタビリティを損なうことなく性能を向上する。
論文 参考訳(メタデータ) (2022-05-26T18:00:02Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Score-based Generative Modeling in Latent Space [93.8985523558869]
スコアベース生成モデル(SGM)は,最近,サンプル品質と分布範囲の両面で顕著な結果を示した。
本稿では,Latent Score-based Generative Model (LSGM)を提案する。
データから潜在空間への移動により、より表現力のある生成モデルをトレーニングし、非連続データにSGMを適用し、よりスムーズなSGMをより小さな空間で学習することができる。
論文 参考訳(メタデータ) (2021-06-10T17:26:35Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。