論文の概要: Scalable Structure Learning of Bayesian Networks by Learning Algorithm Ensembles
- arxiv url: http://arxiv.org/abs/2506.22848v1
- Date: Sat, 28 Jun 2025 11:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.599023
- Title: Scalable Structure Learning of Bayesian Networks by Learning Algorithm Ensembles
- Title(参考訳): 学習アルゴリズムアンサンブルによるベイズネットワークのスケーラブルな構造学習
- Authors: Shengcai Liu, Hui Ou-yang, Zhiyuan Wang, Cheng Chen, Qijun Cai, Yew-Soon Ong, Ke Tang,
- Abstract要約: 本稿では,構造学習アンサンブル(SLE)を用いて,一貫した学習精度を実現する方法を提案する。
また,高品質なSLEを手作業で設計する上での課題に対処するため,準最適SLEを学習するためのAuto-SLEという自動手法を提案する。
本手法は,SLE学習用トレーニングデータよりも多くの変数を持つデータセットによく一般化する。
- 参考スコア(独自算出の注目度): 40.24925433728036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the structure of Bayesian networks (BNs) from data is challenging, especially for datasets involving a large number of variables. The recently proposed divide-and-conquer (D\&D) strategies present a promising approach for learning large BNs. However, they still face a main issue of unstable learning accuracy across subproblems. In this work, we introduce the idea of employing structure learning ensemble (SLE), which combines multiple BN structure learning algorithms, to consistently achieve high learning accuracy. We further propose an automatic approach called Auto-SLE for learning near-optimal SLEs, addressing the challenge of manually designing high-quality SLEs. The learned SLE is then integrated into a D\&D method. Extensive experiments firmly show the superiority of our method over D\&D methods with single BN structure learning algorithm in learning large BNs, achieving accuracy improvement usually by 30\%$\sim$225\% on datasets involving 10,000 variables. Furthermore, our method generalizes well to datasets with many more (e.g., 30000) variables and different network characteristics than those present in the training data for learning the SLE. These results indicate the significant potential of employing (automatic learning of) SLEs for scalable BN structure learning.
- Abstract(参考訳): データからベイズネットワーク(BN)の構造を学ぶことは、特に多数の変数を含むデータセットでは困難である。
最近提案されたD\&D戦略は、大きなBNを学ぶための有望なアプローチを示す。
しかし、サブプロブレム全体にわたって不安定な学習精度が問題となっている。
本研究では,複数のBN構造学習アルゴリズムを組み合わせた構造学習アンサンブル(SLE)を導入し,一貫した学習精度を実現する。
さらに,高品質なSLEを手作業で設計する上での課題に対処するため,近く最適SLEを学習するためのAuto-SLEという自動手法を提案する。
学習したSLEはD\&Dメソッドに統合される。
大規模なBNを学習する際の1つのBN構造学習アルゴリズムを用いたD\&D法よりも、我々の手法の方が優れていることを示す実験は、通常1万の変数を含むデータセットに対して30\%$\sim$225\%の精度向上を達成する。
さらに,本手法は,SLE学習用トレーニングデータに含まれるものよりも,より多くの(例えば,30000)変数と異なるネットワーク特性を持つデータセットによく一般化する。
これらの結果から,スケーラブルなBN構造学習にSLEを用いた(自動学習)可能性が示唆された。
関連論文リスト
- Kun: Answer Polishment for Chinese Self-Alignment with Instruction Back-Translation [30.053409671898933]
Kunは、手動のアノテーションに頼ることなく、大きな言語モデル(LLM)のための高品質な命令チューニングデータセットを作成するための新しいアプローチである。
我々は、Wudao、Wanjuan、SkyPileなど、さまざまな情報源から収集された不正なデータを活用して、100万以上の中国語の命令データポイントの実質的なデータセットを生成します。
論文 参考訳(メタデータ) (2024-01-12T09:56:57Z) - Zero-shot Active Learning Using Self Supervised Learning [11.28415437676582]
我々は,反復的なプロセスを必要としないモデル非依存の新たなアクティブラーニング手法を提案する。
アクティブラーニングの課題に自己指導型学習機能を活用することを目的としている。
論文 参考訳(メタデータ) (2024-01-03T11:49:07Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning [13.231953456197946]
動的ベイズネットワーク(DBN)はその解釈可能性で有名である。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
本稿では,従来の静的BN向けに開発され,大規模DBN構造学習に適応する新たな分断・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-12-04T09:03:06Z) - Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level [0.0]
成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:31:49Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - BigBraveBN: algorithm of structural learning for bayesian networks with
a large number of nodes [0.0]
本稿では,多数のノード(100以上)を持つ大規模ベイズネットワークを学習するためのBigBraveBNアルゴリズムを提案する。
このアルゴリズムは、複数のグループのインスタンスの相互発生を測定するブレーブ係数を利用する。
記事では、BigBraveBNの性能を、離散的かつ連続的な複数のデータセット上の既存のソリューションと比較する。
論文 参考訳(メタデータ) (2022-08-22T13:43:57Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Small-Group Learning, with Application to Neural Architecture Search [17.86826990290058]
人間の学習では、学生の小さなグループが同じ学習目標に向かって協力し、そこでトピックに対する理解を仲間に表現し、アイデアを比較し、互いにトラブルシュートを手助けします。
本稿では,新しいMLフレームワークであるSGL(Small-group Learning)を開発することにより,機械学習モデルを改善するために,この人的学習手法を借用できるかどうかを検討することを目的とする。
sglは、3つの学習段階からなる多レベル最適化フレームワークとして定式化されている: 各学習者は独立してモデルを訓練し、このモデルを使って擬似ラベルを実行する。
論文 参考訳(メタデータ) (2020-12-23T05:56:47Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。