論文の概要: Active Structure Learning of Bayesian Networks in an Observational
Setting
- arxiv url: http://arxiv.org/abs/2103.13796v1
- Date: Thu, 25 Mar 2021 12:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:51:47.842461
- Title: Active Structure Learning of Bayesian Networks in an Observational
Setting
- Title(参考訳): ベイズネットワークの観測環境におけるアクティブな構造学習
- Authors: Noa Ben-David and Sivan Sabato
- Abstract要約: 観測環境におけるベイズネットワークのアクティブ構造学習について検討した。
本稿では,高い確率で最適なスコアに対して$epsilon$-closeのスコアを持つ構造を求める,新しい能動学習アルゴリズムを提案する。
安定」と呼ばれる分布のクラスについて、$d$がネットワーク変数の数である$widetildeOmega(d3)$の係数までのサンプル複雑さの減少が得られることを示しています。
- 参考スコア(独自算出の注目度): 21.376800678915558
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study active structure learning of Bayesian networks in an observational
setting, in which there are external limitations on the number of variable
values that can be observed from the same sample. Random samples are drawn from
the joint distribution of the network variables, and the algorithm iteratively
selects which variables to observe in the next sample. We propose a new active
learning algorithm for this setting, that finds with a high probability a
structure with a score that is $\epsilon$-close to the optimal score. We show
that for a class of distributions that we term stable, a sample complexity
reduction of up to a factor of $\widetilde{\Omega}(d^3)$ can be obtained, where
$d$ is the number of network variables. We further show that in the worst case,
the sample complexity of the active algorithm is guaranteed to be almost the
same as that of a naive baseline algorithm. To supplement the theoretical
results, we report experiments that compare the performance of the new active
algorithm to the naive baseline and demonstrate the sample complexity
improvements. Code for the algorithm and for the experiments is provided at
https://github.com/noabdavid/activeBNSL.
- Abstract(参考訳): 本研究では,同一試料から観測できる可変値の数に外部制約がある観測条件下でのベイズネットワークの能動的構造学習について検討する。
ランダムサンプルはネットワーク変数のジョイント分布から引き出され、アルゴリズムは次のサンプルで観察すべき変数を反復的に選択する。
そこで本研究では, 最適なスコアに近い$\epsilon$のスコアを持つ構造を高い確率で求める, 新たなアクティブラーニングアルゴリズムを提案する。
安定と呼ぶ分布のクラスに対して、$d$ がネットワーク変数の数であるような$\widetilde{\omega}(d^3)$ までのサンプル複雑性の低減が得られることを示す。
さらに, 最悪の場合, アクティブアルゴリズムのサンプル複雑性は, 平均ベースラインアルゴリズムとほぼ同一であることが保証されることを示した。
理論的な結果を補うため,新しい能動アルゴリズムの性能とナイーブなベースラインを比較し,サンプルの複雑さの改善を実証する実験を報告する。
アルゴリズムと実験のためのコードはhttps://github.com/noabdavid/activeBNSLで提供されている。
関連論文リスト
- Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - Information-Computation Tradeoffs for Learning Margin Halfspaces with
Random Classification Noise [50.64137465792738]
ランダム分類ノイズを用いたPAC$gamma$-marginハーフスペースの問題について検討する。
我々は、問題のサンプル複雑性と計算効率の良いアルゴリズムのサンプル複雑性との間に固有のギャップを示唆する情報計算トレードオフを確立する。
論文 参考訳(メタデータ) (2023-06-28T16:33:39Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Is Stochastic Gradient Descent Near Optimal? [0.0]
本研究では,多数のサンプルとクエリの総数を用いて,勾配勾配勾配の誤差が小さいことを示す。
このことは、SGDがJoen & Van Roy (arXiv:2203.00246) の情報理論的なサンプル複雑性境界を計算的に効率よく達成していることを示唆している。
論文 参考訳(メタデータ) (2022-09-18T18:26:43Z) - Parallel Sampling for Efficient High-dimensional Bayesian Network
Structure Learning [6.85316573653194]
本稿では,CPS(Candidate Parent Sets)上で並列サンプリングを行う近似アルゴリズムについて述べる。
修正アルゴリズムはParallel Sampling MINOBS (PS-MINOBS) と呼ばれ、各変数のCPSをサンプリングすることでグラフを構成する。
論文 参考訳(メタデータ) (2022-02-19T22:35:59Z) - Optimal Clustering with Bandit Feedback [57.672609011609886]
本稿では,バンディットフィードバックを用いたオンラインクラスタリングの問題点について考察する。
これは、NPハード重み付きクラスタリング問題をサブルーチンとして解決する必要性を回避するための、シーケンシャルなテストのための新しい停止規則を含む。
合成および実世界のデータセットの広範なシミュレーションを通して、BOCの性能は下界と一致し、非適応的ベースラインアルゴリズムよりも大幅に優れることを示す。
論文 参考訳(メタデータ) (2022-02-09T06:05:05Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z) - Towards Robust and Reproducible Active Learning Using Neural Networks [15.696979318409392]
アクティブラーニング(AL)は、大きなラベルのないデータを解析する可能性を持つ、有望なMLパラダイムである。
近年、ニューラルネットワークに基づくAL手法が、ラベル付けデータを禁止可能な領域におけるアノテーションコストの削減に有効である。
本研究では,異なるタイプのALアルゴリズムがランダムサンプリングベースラインよりも不整合ゲインを生み出すことを示す。
論文 参考訳(メタデータ) (2020-02-21T22:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。