論文の概要: Fast & Efficient Learning of Bayesian Networks from Data: Knowledge
Discovery and Causality
- arxiv url: http://arxiv.org/abs/2310.09222v1
- Date: Fri, 13 Oct 2023 16:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 12:11:27.353100
- Title: Fast & Efficient Learning of Bayesian Networks from Data: Knowledge
Discovery and Causality
- Title(参考訳): データからベイズネットワークの高速かつ効率的な学習:知識発見と因果性
- Authors: Minn Sein, Fu Shunkai
- Abstract要約: FSBNとSSBNという2つの新しいアルゴリズムは、データから因果ネットワーク構造を学ぶために局所探索戦略と条件独立テストを採用している。
FSBNは最大で52%のコスト削減を実現し、SSBNは200ノードネットワークで72%のコスト削減を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure learning is essential for Bayesian networks (BNs) as it uncovers
causal relationships, and enables knowledge discovery, predictions, inferences,
and decision-making under uncertainty. Two novel algorithms, FSBN and SSBN,
based on the PC algorithm, employ local search strategy and conditional
independence tests to learn the causal network structure from data. They
incorporate d-separation to infer additional topology information, prioritize
conditioning sets, and terminate the search immediately and efficiently. FSBN
achieves up to 52% computation cost reduction, while SSBN surpasses it with a
remarkable 72% reduction for a 200-node network. SSBN demonstrates further
efficiency gains due to its intelligent strategy. Experimental studies show
that both algorithms match the induction quality of the PC algorithm while
significantly reducing computation costs. This enables them to offer
interpretability and adaptability while reducing the computational burden,
making them valuable for various applications in big data analytics.
- Abstract(参考訳): 構造学習はベイズネットワーク(bns)にとって因果関係を解明し、不確実性下での知識の発見、予測、推論、意思決定を可能にするため不可欠である。
PCアルゴリズムに基づく2つの新しいアルゴリズムFSBNとSSBNは、データから因果ネットワーク構造を学習するために局所探索戦略と条件独立テストを採用する。
彼らは、追加のトポロジ情報を推論し、条件セットを優先順位付けし、検索を即時かつ効率的に終了するためにd分離を組み込む。
FSBNは最大52%の計算コスト削減を実現し、SSBNは200ノードネットワークに対して72%の大幅な削減を実現している。
SSBNは知的戦略によりさらなる効率向上を示す。
実験により, 2つのアルゴリズムがPCアルゴリズムの帰納的品質と一致し, 計算コストが大幅に削減された。
これにより、計算負荷を低減しつつ、解釈性と適応性を提供し、ビッグデータ分析のさまざまな用途に有用である。
関連論文リスト
- FOBNN: Fast Oblivious Binarized Neural Network Inference [12.587981899648419]
高速な双対型ニューラルネットワーク推論フレームワークであるFOBNNを開発した。
具体的には、二項化畳み込みニューラルネットワークをカスタマイズして、難解な推論を強化し、二項化畳み込みのための2つの高速アルゴリズムを設計し、制約されたコストで実験的にネットワーク構造を最適化する。
論文 参考訳(メタデータ) (2024-05-06T03:12:36Z) - Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning [13.231953456197946]
動的ベイズネットワーク(DBN)はその解釈可能性で有名である。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
本稿では,従来の静的BN向けに開発され,大規模DBN構造学習に適応する新たな分断・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-12-04T09:03:06Z) - IR2Net: Information Restriction and Information Recovery for Accurate
Binary Neural Networks [24.42067007684169]
重みとアクティベーションのバイナライゼーションは、ディープニューラルネットワークを効率よく圧縮し、モデル推論を加速するが、深刻な精度低下を引き起こす。
提案するIR$2$Netは,BNNのポテンシャルを刺激し,入力情報を制限し,特徴情報を復元することでネットワークの精度を向上させる。
実験の結果,ResNet-18 の sim 10x 浮動小数点演算 (FLOPs) の削減でも,本手法は依然として同等の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2022-10-06T02:03:26Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Hard and Soft EM in Bayesian Network Learning from Incomplete Data [1.5484595752241122]
結果のBNの品質に対する信念伝搬の代わりにインプテーションを使用することの影響について検討する。
我々は,データの特徴に基づいて,複数のシナリオにおいて,あるアプローチを推奨できることを見出した。
論文 参考訳(メタデータ) (2020-12-09T19:13:32Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z) - Rethinking Performance Estimation in Neural Architecture Search [191.08960589460173]
本稿では,資源制約型システムにおける性能推定(PE)の体系的再考を行う。
BPEと強化学習,進化アルゴリズム,ランダム探索,異種アーキテクチャ探索などの様々な探索アルゴリズムを組み合わせることで,NASの1,000倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-05-20T09:01:44Z) - Efficient Computation Reduction in Bayesian Neural Networks Through
Feature Decomposition and Memorization [10.182119276564643]
本稿では,計算コストを削減するため,効率的なBNN推論フローを提案する。
計算の約半分は従来の手法と比べて取り除くことができる。
We implement our approach in Verilog and synthesise it with 45 $nm$ FreePDK technology。
論文 参考訳(メタデータ) (2020-05-08T05:03:04Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。