論文の概要: Improving Bayesian Network Structure Learning in the Presence of
Measurement Error
- arxiv url: http://arxiv.org/abs/2011.09776v1
- Date: Thu, 19 Nov 2020 11:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 20:58:50.779770
- Title: Improving Bayesian Network Structure Learning in the Presence of
Measurement Error
- Title(参考訳): 計測誤差を考慮したベイズネットワーク構造学習の改善
- Authors: Yang Liu, Anthony C. Constantinou, ZhiGao Guo
- Abstract要約: 本稿では,構造学習アルゴリズムの最後に付加的な学習フェーズとして加えることができるアルゴリズムについて述べる。
提案アルゴリズムは、4つの確立された構造学習アルゴリズムのグラフィカルスコアの改善に成功している。
- 参考スコア(独自算出の注目度): 11.103936437655575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structure learning algorithms that learn the graph of a Bayesian network from
observational data often do so by assuming the data correctly reflect the true
distribution of the variables. However, this assumption does not hold in the
presence of measurement error, which can lead to spurious edges. This is one of
the reasons why the synthetic performance of these algorithms often
overestimates real-world performance. This paper describes an algorithm that
can be added as an additional learning phase at the end of any structure
learning algorithm, and serves as a correction learning phase that removes
potential false positive edges. The results show that the proposed correction
algorithm successfully improves the graphical score of four well-established
structure learning algorithms spanning different classes of learning in the
presence of measurement error.
- Abstract(参考訳): ベイジアンネットワークのグラフを観測データから学習する構造学習アルゴリズムは、データが変数の真の分布を正しく反映していると仮定することで、しばしばそうする。
しかし、この仮定は測定誤差の存在下では成立せず、スプリアスエッジにつながる可能性がある。
これらのアルゴリズムの合成性能が実世界の性能を過大評価する理由の1つである。
本稿では,任意の構造学習アルゴリズムの最後に追加学習フェーズとして追加でき,潜在的な偽正のエッジを除去する補正学習フェーズとして機能するアルゴリズムについて述べる。
その結果,提案アルゴリズムは,測定誤差の存在下で異なる学習クラスにまたがる4つの確立された構造学習アルゴリズムのグラフィカルスコアを改善することができた。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level [0.0]
成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
論文 参考訳(メタデータ) (2023-03-08T02:31:49Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Hybrid Bayesian network discovery with latent variables by scoring
multiple interventions [5.994412766684843]
離散データから構造学習を行うためのハイブリッドmFGS-BSアルゴリズムを提案する。
このアルゴリズムは潜伏変数の存在下で因果不整合を仮定し、部分アンセストラルグラフ(PAG)を生成する。
実験の結果,mFGS-BSは最先端技術と比較して構造学習精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2021-12-20T14:54:41Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - Demystifying Deep Neural Networks Through Interpretation: A Survey [3.566184392528658]
現代のディープラーニングアルゴリズムは、トレーニングデータセットにおけるクロスエントロピー損失を最小限に抑えるなど、客観的なメトリックを最適化して学習する傾向にある。
問題は、単一の計量が現実世界のタスクの不完全な記述であることだ。
ニューラルネットワークの振る舞いや思考プロセスに関する洞察を提供するために、解釈可能性という問題に取り組む作業が行われている。
論文 参考訳(メタデータ) (2020-12-13T17:56:41Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Large-scale empirical validation of Bayesian Network structure learning
algorithms with noisy data [9.04391541965756]
本稿では、15個の構造学習アルゴリズムの性能について検討する。
各アルゴリズムは、複数のケーススタディ、サンプルサイズ、ノイズの種類、および複数の評価基準で評価される。
その結果、従来の合成性能は、実世界のパフォーマンスを10%以上50%以上で過大評価する可能性があることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T18:40:09Z) - An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set [0.0]
我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
その結果,誤差位置の精度依存性はアルゴリズムとは無関係であることが判明した。
論文 参考訳(メタデータ) (2020-05-07T06:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。