論文の概要: Deep Probabilistic Graphical Modeling
- arxiv url: http://arxiv.org/abs/2104.12053v1
- Date: Sun, 25 Apr 2021 03:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 10:26:35.475815
- Title: Deep Probabilistic Graphical Modeling
- Title(参考訳): 深い確率的グラフィカルモデリング
- Authors: Adji B. Dieng
- Abstract要約: この論文は、DPGM(Deep Probabilistic Graphic Model)を発展させる。
DPGMは、ディープラーニング(DL)を活用してPGMをより柔軟にする。
ニューラルネットワークを用いた指数関数型ファミリーPCAを拡張して予測性能を向上するモデルクラスを開発した。
- 参考スコア(独自算出の注目度): 2.2691593216516863
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Probabilistic graphical modeling (PGM) provides a framework for formulating
an interpretable generative process of data and expressing uncertainty about
unknowns, but it lacks flexibility. Deep learning (DL) is an alternative
framework for learning from data that has achieved great empirical success in
recent years. DL offers great flexibility, but it lacks the interpretability
and calibration of PGM. This thesis develops deep probabilistic graphical
modeling (DPGM.) DPGM consists in leveraging DL to make PGM more flexible. DPGM
brings about new methods for learning from data that exhibit the advantages of
both PGM and DL.
We use DL within PGM to build flexible models endowed with an interpretable
latent structure. One model class we develop extends exponential family PCA
using neural networks to improve predictive performance while enforcing the
interpretability of the latent factors. Another model class we introduce
enables accounting for long-term dependencies when modeling sequential data,
which is a challenge when using purely DL or PGM approaches. Finally, DPGM
successfully solves several outstanding problems of probabilistic topic models,
a widely used family of models in PGM.
DPGM also brings about new algorithms for learning with complex data. We
develop reweighted expectation maximization, an algorithm that unifies several
existing maximum likelihood-based algorithms for learning models parameterized
by neural networks. This unifying view is made possible using expectation
maximization, a canonical inference algorithm in PGM. We also develop
entropy-regularized adversarial learning, a learning paradigm that deviates
from the traditional maximum likelihood approach used in PGM. From the DL
perspective, entropy-regularized adversarial learning provides a solution to
the long-standing mode collapse problem of generative adversarial networks, a
widely used DL approach.
- Abstract(参考訳): 確率的グラフィカルモデリング(PGM)は、データの解釈可能な生成プロセスを定式化し、未知に関する不確実性を表現するためのフレームワークを提供するが、柔軟性に欠ける。
ディープラーニング(DL)は、近年大きな実証的な成功を収めたデータから学ぶための代替フレームワークである。
DLは優れた柔軟性を提供するが、PGMの解釈可能性やキャリブレーションに欠ける。
この論文は、深い確率的グラフィカルモデリング(dpgm)を開発する。
DPGMはDLを活用してPGMをより柔軟にする。
DPGMは、PGMとDLの両方の利点を示すデータから学習する新しい方法をもたらす。
我々はPGM内でDLを用いて、解釈可能な潜在構造を持つフレキシブルモデルを構築する。
ニューラルネットワークを用いた指数関数型ファミリーPCAを拡張し,潜在因子の解釈可能性を高めながら予測性能を向上させる。
もうひとつ紹介するモデルクラスでは、シーケンシャルなデータをモデリングする際の長期的依存関係を説明できるようにしています。
最後に、DPGMは、PGMで広く使われているモデル群である確率論的トピックモデルのいくつかの際立った問題をうまく解決する。
DPGMは複雑なデータで学習するための新しいアルゴリズムも導入している。
ニューラルネットワークによってパラメータ化された学習モデルのための,既存の最大可能性に基づくアルゴリズムを統一するアルゴリズムである。
この統一ビューは、PGMの標準推論アルゴリズムである期待最大化を用いて実現される。
また,従来のPGMの最大極大アプローチから逸脱する学習パラダイムである,エントロピー規則化された逆数学習を開発する。
DLの観点からは、エントロピー規則化された逆数学習は、生成逆数ネットワークの長期モード崩壊問題に対する解決策を提供する。
関連論文リスト
- Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - PAC Reinforcement Learning for Predictive State Representations [60.00237613646686]
部分的に観察可能な力学系におけるオンライン強化学習(RL)について検討する。
我々は、他のよく知られたモデルをキャプチャする表現モデルである予測状態表現(PSR)モデルに焦点を当てる。
我々は,サンプル複雑性のスケーリングにおいて,ほぼ最適なポリシを学習可能な,PSRのための新しいモデルベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-12T17:57:17Z) - Bayesian Active Learning for Discrete Latent Variable Models [19.852463786440122]
アクティブラーニングは、モデルのパラメータに適合するために必要なデータ量を削減しようとする。
潜在変数モデルは神経科学、心理学、その他の様々な工学、科学分野において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-02-27T19:07:12Z) - Modeling Item Response Theory with Stochastic Variational Inference [8.369065078321215]
項目応答理論(IRT)のための変分ベイズ推論アルゴリズムを提案する。
この手法を5つの大規模項目応答データセットに適用すると、欠落したデータを出力する際の高いログ可能性と高い精度が得られる。
アルゴリズムの実装はオープンソースであり、簡単に利用できる。
論文 参考訳(メタデータ) (2021-08-26T05:00:27Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - A Deep Latent Space Model for Graph Representation Learning [10.914558012458425]
本稿では,従来の潜時変動に基づく生成モデルをディープラーニングフレームワークに組み込むために,有向グラフのための深潜時空間モデル(DLSM)を提案する。
提案モデルは,階層的変動型オートエンコーダアーキテクチャによって階層的に接続されるグラフ畳み込みネットワーク(GCN)エンコーダとデコーダから構成される。
実世界のデータセットにおける実験により,提案モデルがリンク予測とコミュニティ検出の両タスクにおける最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-06-22T12:41:19Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep neural network enabled corrective source term approach to hybrid
analysis and modeling [0.0]
ハイブリッド分析モデリング(Hybrid Analysis and Modeling, HAM)は、物理に基づくモデリングとデータ駆動モデリングを組み合わせることを目的とした、新しいモデリングパラダイムである。
補正元項アプローチ(CoSTA)のHAMに対する新しいアプローチを導入し、正当化し、実証する。
論文 参考訳(メタデータ) (2021-05-24T20:17:13Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。