論文の概要: Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning
- arxiv url: http://arxiv.org/abs/2312.01739v1
- Date: Mon, 4 Dec 2023 09:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:37:30.351226
- Title: Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning
- Title(参考訳): 大規模動的ベイズネットワーク構造学習のための分割・分割戦略
- Authors: Hui Ouyang, Cheng Chen, Ke Tang
- Abstract要約: 動的ベイズネットワーク(DBN)はその解釈可能性で有名である。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
本稿では,従来の静的BN向けに開発され,大規模DBN構造学習に適応する新たな分断・対数戦略を提案する。
- 参考スコア(独自算出の注目度): 13.231953456197946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Bayesian Networks (DBNs), renowned for their interpretability, have
become increasingly vital in representing complex stochastic processes in
various domains such as gene expression analysis, healthcare, and traffic
prediction. Structure learning of DBNs from data is challenging, particularly
for datasets with thousands of variables. Most current algorithms for DBN
structure learning are adaptations from those used in static Bayesian Networks
(BNs), and are typically focused on small-scale problems. In order to solve
large-scale problems while taking full advantage of existing algorithms, this
paper introduces a novel divide-and-conquer strategy, originally developed for
static BNs, and adapts it for large-scale DBN structure learning. In this work,
we specifically concentrate on 2 Time-sliced Bayesian Networks (2-TBNs), a
special class of DBNs. Furthermore, we leverage the prior knowledge of 2-TBNs
to enhance the performance of the strategy we introduce. Our approach
significantly improves the scalability and accuracy of 2-TBN structure
learning. Experimental results demonstrate the effectiveness of our method,
showing substantial improvements over existing algorithms in both computational
efficiency and structure learning accuracy. On problem instances with more than
1,000 variables, our approach improves two accuracy metrics by 74.45% and
110.94% on average , respectively, while reducing runtime by 93.65% on average.
- Abstract(参考訳): 動的ベイズネットワーク(DBN)は、その解釈可能性で知られており、遺伝子発現解析、医療、交通予測など、様々な領域における複雑な確率過程を表現する上で、ますます重要になっている。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
現在のDBN構造学習のアルゴリズムは、静的ベイズネットワーク(BN)で使われているものからの適応であり、通常は小規模な問題に焦点を当てている。
本稿では,既存のアルゴリズムを最大限に活用しつつ,大規模な問題を解くために,従来の静的BN用に開発された分割・分散戦略を導入し,大規模DBN構造学習に適用する。
本研究では,特にdbnsの特殊クラスである2つのタイムスライスベイズネットワーク (2-tbns) に着目した。
さらに,2-TBNの事前知識を活用し,導入戦略の性能向上を図る。
提案手法は2-TBN構造学習のスケーラビリティと精度を大幅に向上させる。
提案手法の有効性を実験的に示し,計算効率と構造学習精度の両方において既存のアルゴリズムを大きく改善した。
1000以上の変数を持つ問題インスタンスでは,2つの精度指標を平均で74.45%,110.94%改善し,ランタイムを平均93.65%削減した。
関連論文リスト
- Fast & Efficient Learning of Bayesian Networks from Data: Knowledge
Discovery and Causality [0.0]
FSBNとSSBNという2つの新しいアルゴリズムは、データから因果ネットワーク構造を学ぶために局所探索戦略と条件独立テストを採用している。
FSBNは最大で52%のコスト削減を実現し、SSBNは200ノードネットワークで72%のコスト削減を実現している。
論文 参考訳(メタデータ) (2023-10-13T16:20:20Z) - Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level [0.0]
成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:31:49Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - BigBraveBN: algorithm of structural learning for bayesian networks with
a large number of nodes [0.0]
本稿では,多数のノード(100以上)を持つ大規模ベイズネットワークを学習するためのBigBraveBNアルゴリズムを提案する。
このアルゴリズムは、複数のグループのインスタンスの相互発生を測定するブレーブ係数を利用する。
記事では、BigBraveBNの性能を、離散的かつ連続的な複数のデータセット上の既存のソリューションと比較する。
論文 参考訳(メタデータ) (2022-08-22T13:43:57Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Efficient and Scalable Structure Learning for Bayesian Networks:
Algorithms and Applications [33.8980356362084]
事業要件を総合的に満たす新しい構造学習アルゴリズム「LEAST」を提案します。
LEASTはデプロイされ、毎日数千の実行で20以上のアプリケーションに対応します。
大規模遺伝子発現データ解析や説明可能なレコメンデーションシステムなど,新しい領域におけるbn構造学習の適用可能性の最小化が期待できることを示す。
論文 参考訳(メタデータ) (2020-12-07T09:11:08Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。