論文の概要: Any Part of Bayesian Network Structure Learning
- arxiv url: http://arxiv.org/abs/2103.13810v1
- Date: Tue, 23 Mar 2021 10:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:57:31.528269
- Title: Any Part of Bayesian Network Structure Learning
- Title(参考訳): ベイジアンネットワーク構造学習のあらゆる部分
- Authors: Zhaolong Ling, Kui Yu, Hao Wang, Lin Liu, and Jiuyong Li
- Abstract要約: ベイズネットワーク(BN)構造の一部を学習し、興味深く挑戦的な問題を研究する。
まず,局所bn構造学習手法が偽エッジ方向問題を持つ理由を説明するために,拡張バックトラックという新しい概念を提案する。
そこで我々は,効率的かつ正確なBN構造学習アルゴリズムAPSLを提案する。
- 参考スコア(独自算出の注目度): 17.46459748913491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study an interesting and challenging problem, learning any part of a
Bayesian network (BN) structure. In this challenge, it will be computationally
inefficient using existing global BN structure learning algorithms to find an
entire BN structure to achieve the part of a BN structure in which we are
interested. And local BN structure learning algorithms encounter the false edge
orientation problem when they are directly used to tackle this challenging
problem. In this paper, we first present a new concept of Expand-Backtracking
to explain why local BN structure learning methods have the false edge
orientation problem, then propose APSL, an efficient and accurate Any Part of
BN Structure Learning algorithm. Specifically, APSL divides the V-structures in
a Markov blanket (MB) into two types: collider V-structure and non-collider
V-structure, then it starts from a node of interest and recursively finds both
collider V-structures and non-collider V-structures in the found MBs, until the
part of a BN structure in which we are interested are oriented. To improve the
efficiency of APSL, we further design the APSL-FS algorithm using Feature
Selection, APSL-FS. Using six benchmark BNs, the extensive experiments have
validated the efficiency and accuracy of our methods.
- Abstract(参考訳): ベイズネットワーク(BN)構造の一部を学習し、興味深く挑戦的な問題を研究する。
この課題では、既存のグローバルBN構造学習アルゴリズムを用いて、関心のあるBN構造の一部を達成するためにBN構造全体の探索を行う。
そして、ローカルBN構造学習アルゴリズムは、この課題に対処するために直接使用される際に、偽エッジ指向問題に遭遇する。
本稿では,まず,局所的なBN構造学習手法がなぜ疑似エッジ指向問題を持つのかを説明するために,拡張-バックトラックという新しい概念を提案し,その上で,効率よく正確なBN構造学習アルゴリズムであるAPSLを提案する。
具体的には、apslはv-構造をマーカフブランケット(mb)のv-構造と非コリダーv-構造に分割し、次にv-構造が興味のあるノードから始まり、衝突型v-構造と非コリダー型v-構造の両方を、我々が関心を持つbn構造の一部が向き付けられるまで再帰的に発見する。
我々はAPSLの効率を改善するために,特徴選択を用いたAPSL-FSアルゴリズム,APSL-FSを設計する。
6つのベンチマークBNを用いて,提案手法の有効性と精度を検証した。
関連論文リスト
- Searching for Efficient Linear Layers over a Continuous Space of Structured Matrices [88.33936714942996]
アインシュタイン和を通じて表現可能なすべての線形作用素の探索を可能にする統一フレームワークを提案する。
計算-最適スケーリング法則の違いは主に少数の変数によって支配されていることを示す。
そこで,Mixture-of-Experts (MoE) は,注目ブロックの投影を含む,モデルのすべての線形層におけるMoEを学習する。
論文 参考訳(メタデータ) (2024-10-03T00:44:50Z) - Scalability of Bayesian Network Structure Elicitation with Large Language Models: a Novel Methodology and Comparative Analysis [5.91003502313675]
本稿では,異なる経験を持つ複数のLLMに基づいて,ベイズネットワーク (BN) 構造解析手法を提案する。
異なる大きさのBNを多種多様かつ広く知られていないBNに対して,本手法を1つの代替手法と比較し,その拡張性について検討する。
論文 参考訳(メタデータ) (2024-07-12T14:52:13Z) - Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning [13.231953456197946]
動的ベイズネットワーク(DBN)はその解釈可能性で有名である。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
本稿では,従来の静的BN向けに開発され,大規模DBN構造学習に適応する新たな分断・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-12-04T09:03:06Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - Learning Bayesian Networks in the Presence of Structural Side
Information [22.734574764075226]
本研究では,システムに関する構造的側面情報が得られる場合に,変数の集合のベイズネットワーク(BN)を学習する問題について検討する。
そこで我々は,そのような知識を学習プロセスに効率的に組み込むアルゴリズムを開発した。
我々の研究の結果、木幅の有界BNは複雑に学習できることが示されている。
論文 参考訳(メタデータ) (2021-12-20T22:14:19Z) - Feature Selection for Efficient Local-to-Global Bayesian Network
Structure Learning [18.736822756439437]
本稿では,F2SL(Feature selection-based structure learning)による局所-グローバルBN構造学習手法を提案する。
F2SL法はまずMRMR法を用いてDAG骨格を学習し、その後、骨格の縁を向き付けている。
最先端のローカル-グローバル BN 学習アルゴリズムと比較して、提案アルゴリズムはより効率的で、競合する構造学習の質を提供することを示した。
論文 参考訳(メタデータ) (2021-12-20T07:44:38Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - Unveiling the Potential of Structure-Preserving for Weakly Supervised
Object Localization [71.79436685992128]
本稿では,WSOLの畳み込み機能に組み込まれた構造情報を完全に活用するための2段階構造保存アクティベーション(SPA)を提案する。
第1段階では、分類ネットワークによって引き起こされる構造ミス問題を軽減するために制限アクティベーションモジュール(ram)が設計されている。
第2段階では, 自己相関マップ生成(SCG)モジュールと呼ばれるプロセス後アプローチを提案し, 構造保存ローカライゼーションマップを得る。
論文 参考訳(メタデータ) (2021-03-08T03:04:14Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - Turbocharging Treewidth-Bounded Bayesian Network Structure Learning [26.575053800551633]
木幅有界ネットワーク(BN)の構造学習のための新しいアプローチを提案する。
提案手法の鍵となるのは,Aally Computed BN のスコアを改善するために,(MaxSAT をベースとした)厳密な手法を局所的に適用することである。
実験の結果,本手法は最先端の手法によって提供されるBNのスコアを著しく改善することがわかった。
論文 参考訳(メタデータ) (2020-06-24T16:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。