論文の概要: Scalability of Bayesian Network Structure Elicitation with Large Language Models: a Novel Methodology and Comparative Analysis
- arxiv url: http://arxiv.org/abs/2407.09311v1
- Date: Fri, 12 Jul 2024 14:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-15 23:08:25.406345
- Title: Scalability of Bayesian Network Structure Elicitation with Large Language Models: a Novel Methodology and Comparative Analysis
- Title(参考訳): ベイジアンネットワーク構造の大規模言語モデルによる拡張性:新しい手法と比較解析
- Authors: Nikolay Babakov, Ehud Reiter, Alberto Bugarin,
- Abstract要約: 本稿では,異なる経験を持つ複数のLLMに基づいて,ベイズネットワーク (BN) 構造解析手法を提案する。
異なる大きさのBNを多種多様かつ広く知られていないBNに対して,本手法を1つの代替手法と比較し,その拡張性について検討する。
- 参考スコア(独自算出の注目度): 5.91003502313675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel method for Bayesian Networks (BNs) structure elicitation that is based on the initialization of several LLMs with different experiences, independently querying them to create a structure of the BN, and further obtaining the final structure by majority voting. We compare the method with one alternative method on various widely and not widely known BNs of different sizes and study the scalability of both methods on them. We also propose an approach to check the contamination of BNs in LLM, which shows that some widely known BNs are inapplicable for testing the LLM usage for BNs structure elicitation. We also show that some BNs may be inapplicable for such experiments because their node names are indistinguishable. The experiments on the other BNs show that our method performs better than the existing method with one of the three studied LLMs; however, the performance of both methods significantly decreases with the increase in BN size.
- Abstract(参考訳): 本研究では,異なる経験を持つ複数の LLM の初期化に基づいて,BN の構造を独立に問合せ,多数決によって最終構造を得る,ベイズネットワーク (BNs) の新たな手法を提案する。
異なる大きさのBNを多種多様かつ広く知られていないBNに対して,本手法を一つの代替手法と比較し,両手法のスケーラビリティについて検討する。
また, LLM における BN の汚染をチェックする手法を提案し, BN の構造解析における LLM の使用試験に広く知られている BN が適用できないことを示す。
また、あるBNはノード名が区別できないため、そのような実験には適用できない可能性があることも示している。
実験の結果,提案手法は従来の3つのLLM法よりも優れた性能を示したが,BNサイズの増加に伴い両手法の性能は著しく低下した。
関連論文リスト
- Scalable Ensemble Diversification for OOD Generalization and Detection [68.8982448081223]
SEDは、ハエのハードトレーニングサンプルを特定し、アンサンブルメンバーにこれらについて意見の一致を奨励する。
モデル間でのペアの相違を解消する既存の方法において,コストのかかる計算を避ける方法を示す。
OODの一般化のために,出力空間(古典的)アンサンブルや重量空間アンサンブル(モデルスープ)など,複数の環境での多様化による大きなメリットを観察する。
論文 参考訳(メタデータ) (2024-09-25T10:30:24Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - BigBraveBN: algorithm of structural learning for bayesian networks with
a large number of nodes [0.0]
本稿では,多数のノード(100以上)を持つ大規模ベイズネットワークを学習するためのBigBraveBNアルゴリズムを提案する。
このアルゴリズムは、複数のグループのインスタンスの相互発生を測定するブレーブ係数を利用する。
記事では、BigBraveBNの性能を、離散的かつ連続的な複数のデータセット上の既存のソリューションと比較する。
論文 参考訳(メタデータ) (2022-08-22T13:43:57Z) - Reconstructing Bayesian Networks on a Quantum Annealer [0.0]
O'Gormanらは、このタスクを符号化するアルゴリズムを提案しているが、実験的な評価は提供していない。
i) O'GormanのアルゴリズムをPythonで実装し,(ii)大小のBNSL問題に対処するDeput et imperaアプローチを提案する。
その結果、小サイズのBNSLインスタンスに対するO'Gormanの定式化の有効性と、O'Gormanのアルゴリズムの直接実行におけるDeput et imperaアプローチの優位性を示した。
論文 参考訳(メタデータ) (2022-04-07T15:53:05Z) - Any Part of Bayesian Network Structure Learning [17.46459748913491]
ベイズネットワーク(BN)構造の一部を学習し、興味深く挑戦的な問題を研究する。
まず,局所bn構造学習手法が偽エッジ方向問題を持つ理由を説明するために,拡張バックトラックという新しい概念を提案する。
そこで我々は,効率的かつ正確なBN構造学習アルゴリズムAPSLを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:03:31Z) - Sandwich Batch Normalization [96.2529041037824]
数行のコード変更しか行わないバッチ正規化(BN)の容易な改善であるSandwich Batch Normalization(SaBN)を提案する。
我々のSaBNはBNアフィン層を1つのサンドイッチアフィン層に分解し、複数の平行な独立したアフィン層でカスケードする。
4つのタスクにおいて,SaBNがドロップイン代替として有効であることを示す。
論文 参考訳(メタデータ) (2021-02-22T22:09:43Z) - On Resource-Efficient Bayesian Network Classifiers and Deep Neural
Networks [14.540226579203207]
ベイズネットワーク(BN)分類器の複雑さを低減するための2つの方法を提案する。
まず、ストレートスルー勾配推定器を用いてBNのパラメータを数ビットに量子化する量子化学習を導入する。
第2に、モデルサイズも考慮し、最近提案された微分可能な木強化ナイーブベイズ (TAN) 構造学習手法を拡張した。
論文 参考訳(メタデータ) (2020-10-22T14:47:55Z) - Turbocharging Treewidth-Bounded Bayesian Network Structure Learning [26.575053800551633]
木幅有界ネットワーク(BN)の構造学習のための新しいアプローチを提案する。
提案手法の鍵となるのは,Aally Computed BN のスコアを改善するために,(MaxSAT をベースとした)厳密な手法を局所的に適用することである。
実験の結果,本手法は最先端の手法によって提供されるBNのスコアを著しく改善することがわかった。
論文 参考訳(メタデータ) (2020-06-24T16:13:10Z) - A Generic First-Order Algorithmic Framework for Bi-Level Programming
Beyond Lower-Level Singleton [49.23948907229656]
Bi-level Descent Aggregationは、汎用的な双方向最適化のためのフレキシブルでモジュール化されたアルゴリズムフレームワークである。
LLS条件なしでBDAの収束を証明する新しい手法を導出する。
我々の研究は、BDAが特定の一階計算モジュールの検証と互換性があることも示している。
論文 参考訳(メタデータ) (2020-06-07T05:18:50Z) - Towards Stabilizing Batch Statistics in Backward Propagation of Batch
Normalization [126.6252371899064]
移動平均バッチ正規化(MABN)は,新しい正規化法である。
小バッチの場合,MABNはバニラBNの性能を完全に回復できることを示す。
実験では、ImageNetやCOCOを含む複数のコンピュータビジョンタスクにおけるMABNの有効性を実証した。
論文 参考訳(メタデータ) (2020-01-19T14:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。