論文の概要: Turbocharging Treewidth-Bounded Bayesian Network Structure Learning
- arxiv url: http://arxiv.org/abs/2006.13843v2
- Date: Fri, 5 Feb 2021 16:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:16:28.349437
- Title: Turbocharging Treewidth-Bounded Bayesian Network Structure Learning
- Title(参考訳): ターボチャージツリー幅制限ベイズネットワーク構造学習
- Authors: Vaidyanathan P. R. and Stefan Szeider
- Abstract要約: 木幅有界ネットワーク(BN)の構造学習のための新しいアプローチを提案する。
提案手法の鍵となるのは,Aally Computed BN のスコアを改善するために,(MaxSAT をベースとした)厳密な手法を局所的に適用することである。
実験の結果,本手法は最先端の手法によって提供されるBNのスコアを著しく改善することがわかった。
- 参考スコア(独自算出の注目度): 26.575053800551633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new approach for learning the structure of a treewidth-bounded
Bayesian Network (BN). The key to our approach is applying an exact method
(based on MaxSAT) locally, to improve the score of a heuristically computed BN.
This approach allows us to scale the power of exact methods -- so far only
applicable to BNs with several dozens of random variables -- to large BNs with
several thousands of random variables. Our experiments show that our method
improves the score of BNs provided by state-of-the-art heuristic methods, often
significantly.
- Abstract(参考訳): 本稿では,木幅有界ベイズネットワーク(BN)の構造を学習するための新しいアプローチを提案する。
我々のアプローチの鍵は、ヒューリスティックに計算されたbnのスコアを改善するために、(maxsatに基づく)正確な手法をローカルに適用することである。
このアプローチは、数十のランダム変数を持つBNにしか適用できない正確なメソッドのパワーを、数千のランダム変数を持つ大きなBNに拡張することを可能にする。
実験の結果,本手法は最先端のヒューリスティック手法によって提供されるBNのスコアを著しく改善することがわかった。
関連論文リスト
- Scalability of Bayesian Network Structure Elicitation with Large Language Models: a Novel Methodology and Comparative Analysis [5.91003502313675]
本稿では,異なる経験を持つ複数のLLMに基づいて,ベイズネットワーク (BN) 構造解析手法を提案する。
異なる大きさのBNを多種多様かつ広く知られていないBNに対して,本手法を1つの代替手法と比較し,その拡張性について検討する。
論文 参考訳(メタデータ) (2024-07-12T14:52:13Z) - Divide-and-Conquer Strategy for Large-Scale Dynamic Bayesian Network
Structure Learning [13.231953456197946]
動的ベイズネットワーク(DBN)はその解釈可能性で有名である。
データからのDBNの構造学習は特に数千の変数を持つデータセットでは難しい。
本稿では,従来の静的BN向けに開発され,大規模DBN構造学習に適応する新たな分断・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-12-04T09:03:06Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - All at Once Network Quantization via Collaborative Knowledge Transfer [56.95849086170461]
オールオンス量子化ネットワークを効率的にトレーニングするための新しい共同知識伝達アプローチを開発しています。
具体的には、低精度の学生に知識を伝達するための高精度のエンクォータを選択するための適応的選択戦略を提案する。
知識を効果的に伝達するために,低精度の学生ネットワークのブロックを高精度の教師ネットワークのブロックにランダムに置き換える動的ブロックスワッピング法を開発した。
論文 参考訳(メタデータ) (2021-03-02T03:09:03Z) - Sandwich Batch Normalization [96.2529041037824]
数行のコード変更しか行わないバッチ正規化(BN)の容易な改善であるSandwich Batch Normalization(SaBN)を提案する。
我々のSaBNはBNアフィン層を1つのサンドイッチアフィン層に分解し、複数の平行な独立したアフィン層でカスケードする。
4つのタスクにおいて,SaBNがドロップイン代替として有効であることを示す。
論文 参考訳(メタデータ) (2021-02-22T22:09:43Z) - On Resource-Efficient Bayesian Network Classifiers and Deep Neural
Networks [14.540226579203207]
ベイズネットワーク(BN)分類器の複雑さを低減するための2つの方法を提案する。
まず、ストレートスルー勾配推定器を用いてBNのパラメータを数ビットに量子化する量子化学習を導入する。
第2に、モデルサイズも考慮し、最近提案された微分可能な木強化ナイーブベイズ (TAN) 構造学習手法を拡張した。
論文 参考訳(メタデータ) (2020-10-22T14:47:55Z) - Differentiable TAN Structure Learning for Bayesian Network Classifiers [19.30562170076368]
本研究では,個別な入力特徴を持つベイズ型ネットワーク分類器に対する木拡大型ネーブベイズ構造(TAN)の学習について検討する。
提案手法は,可能なグラフ構造の空間上で最適化を行う代わりに,グラフ構造上の分布を学習する。
提案手法はランダムなTAN構造とChow-Liu TAN構造を一貫して上回る。
論文 参考訳(メタデータ) (2020-08-21T16:22:47Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - A Framework for Neural Network Pruning Using Gibbs Distributions [34.0576955010317]
Gibbs pruningは、ニューラルネットワークのプルーニングメソッドを表現および設計するための新しいフレームワークである。
学習したウェイトとプルーニングマスクが互いに順応するように、同時にネットワークを訓練し訓練することができる。
我々は、CIFAR-10データセットでResNet-56を刈り取るための、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2020-06-08T23:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。