論文の概要: Reconsidering Dependency Networks from an Information Geometry
Perspective
- arxiv url: http://arxiv.org/abs/2107.00871v1
- Date: Fri, 2 Jul 2021 07:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 00:53:53.640817
- Title: Reconsidering Dependency Networks from an Information Geometry
Perspective
- Title(参考訳): 情報幾何の観点から見た依存ネットワークの再考
- Authors: Kazuya Takabatake, Shotaro Akaho
- Abstract要約: 依存ネットワークは、多数の変数を含むシステムの潜在的な確率的グラフィカルモデルである。
依存ネットワークの構造は有向グラフで表され、各ノードは条件付き確率テーブルを持つ。
従属ネットワークとベイズネットワークは,学習した分布の精度においてほぼ同じ性能を示すことを示す。
- 参考スコア(独自算出の注目度): 2.6778110563115542
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Dependency networks (Heckerman et al., 2000) are potential probabilistic
graphical models for systems comprising a large number of variables. Like
Bayesian networks, the structure of a dependency network is represented by a
directed graph, and each node has a conditional probability table. Learning and
inference are realized locally on individual nodes; therefore, computation
remains tractable even with a large number of variables. However, the
dependency network's learned distribution is the stationary distribution of a
Markov chain called pseudo-Gibbs sampling and has no closed-form expressions.
This technical disadvantage has impeded the development of dependency networks.
In this paper, we consider a certain manifold for each node. Then, we can
interpret pseudo-Gibbs sampling as iterative m-projections onto these
manifolds. This interpretation provides a theoretical bound for the location
where the stationary distribution of pseudo-Gibbs sampling exists in
distribution space. Furthermore, this interpretation involves structure and
parameter learning algorithms as optimization problems. In addition, we compare
dependency and Bayesian networks experimentally. The results demonstrate that
the dependency network and the Bayesian network have roughly the same
performance in terms of the accuracy of their learned distributions. The
results also show that the dependency network can learn much faster than the
Bayesian network.
- Abstract(参考訳): 依存ネットワーク(Heckerman et al., 2000)は、多数の変数を含むシステムに対する潜在的確率的グラフィカルモデルである。
ベイズネットワークと同様に、依存ネットワークの構造は有向グラフで表現され、各ノードは条件付き確率テーブルを持つ。
学習と推論は個々のノード上でローカルに実現されるため、多くの変数であっても計算は扱いやすいままである。
しかし、依存ネットワークの学習分布は擬ギブスサンプリングと呼ばれるマルコフ連鎖の定常分布であり、閉形式表現を持たない。
この技術的不利は依存ネットワークの開発を妨げている。
本稿では,各ノードに対してある多様体を考える。
そして、これらの多様体上の反復 m-射影として擬ギブスサンプリングを解釈することができる。
この解釈は、擬ギブスサンプリングの定常分布が分布空間に存在する位置に関する理論的境界を与える。
さらに、この解釈は最適化問題として構造およびパラメータ学習アルゴリズムを含む。
さらに,ベイジアンネットワークと依存性を実験的に比較した。
その結果,依存性ネットワークとベイズネットワークは,学習した分布の精度でほぼ同じ性能を示すことがわかった。
その結果,依存性ネットワークはベイズネットワークよりもはるかに高速に学習できることがわかった。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Backward and Forward Inference in Interacting Independent-Cascade
Processes: A Scalable and Convergent Message-Passing Approach [1.1470070927586018]
本研究では,ネットワーク上に並列に分散する2つの拡散過程の過去と将来の進化を推定する問題について検討する。
ネットワークの初期状態と観測ショット$mathcalO_n$の正確な結合確率を導出する。
論文 参考訳(メタデータ) (2023-10-29T20:03:38Z) - ResolvNet: A Graph Convolutional Network with multi-scale Consistency [47.98039061491647]
マルチスケール一貫性の概念を導入する。
グラフレベルでは、マルチスケールの一貫性は、異なる解像度で同じオブジェクトを記述する異なるグラフが同様の特徴ベクトルを割り当てるべきという事実を指す。
本稿では,リゾルダーの数学的概念に基づくフレキシブルグラフニューラルネットワークResolvNetを紹介する。
論文 参考訳(メタデータ) (2023-09-30T16:46:45Z) - Evaluating Robustness and Uncertainty of Graph Models Under Structural
Distributional Shifts [43.40315460712298]
グラフ学習におけるノードレベルの問題では、分散シフトは特に複雑である。
本稿では,グラフ構造に基づく分布変化の一般化手法を提案する。
単純なモデルは、考慮された構造的シフトにおいて、より洗練された手法よりも優れていることがよく示される。
論文 参考訳(メタデータ) (2023-02-27T15:25:21Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - Bayesian Detection of Mesoscale Structures in Pathway Data on Graphs [0.0]
メソスケール構造は 複雑なシステムの抽象化と解析の 不可欠な部分です
それらは、社会的または引用ネットワークにおけるコミュニティ、企業間相互作用における役割、または輸送ネットワークにおける中核周辺構造におけるコミュニティを表現することができる。
我々は,グループ内のノードの最適分割と高次ネットワークの最適ダイナミクスを同時にモデル化するベイズ的アプローチを導出する。
論文 参考訳(メタデータ) (2023-01-16T12:45:33Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - Multi-Source Data Fusion Outage Location in Distribution Systems via
Probabilistic Graph Models [1.7205106391379026]
本稿では,部分的に観測可能な分散システムにおける障害事象を特定するためのマルチソースデータ融合手法を提案する。
提案手法の新たな側面として,マルチソースエビデンスと分散システムの複雑な構造を考慮に入れている点が挙げられる。
提案手法は,高次元空間における停止位置推定の計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-04T22:34:20Z) - Embedding Propagation: Smoother Manifold for Few-Shot Classification [131.81692677836202]
本稿では, 組込み伝搬を非教師なし非パラメトリック正規化器として, 数ショット分類における多様体平滑化に用いることを提案する。
埋め込み伝播がより滑らかな埋め込み多様体を生み出すことを実証的に示す。
複数の半教師付き学習シナリオにおいて,埋め込み伝搬によりモデルの精度が最大16%向上することを示す。
論文 参考訳(メタデータ) (2020-03-09T13:51:09Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。