論文の概要: Improving Bayesian Network Structure Learning in the Presence of
Measurement Error
- arxiv url: http://arxiv.org/abs/2011.09776v1
- Date: Thu, 19 Nov 2020 11:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 20:58:50.779770
- Title: Improving Bayesian Network Structure Learning in the Presence of
Measurement Error
- Title(参考訳): 計測誤差を考慮したベイズネットワーク構造学習の改善
- Authors: Yang Liu, Anthony C. Constantinou, ZhiGao Guo
- Abstract要約: 本稿では,構造学習アルゴリズムの最後に付加的な学習フェーズとして加えることができるアルゴリズムについて述べる。
提案アルゴリズムは、4つの確立された構造学習アルゴリズムのグラフィカルスコアの改善に成功している。
- 参考スコア(独自算出の注目度): 11.103936437655575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structure learning algorithms that learn the graph of a Bayesian network from
observational data often do so by assuming the data correctly reflect the true
distribution of the variables. However, this assumption does not hold in the
presence of measurement error, which can lead to spurious edges. This is one of
the reasons why the synthetic performance of these algorithms often
overestimates real-world performance. This paper describes an algorithm that
can be added as an additional learning phase at the end of any structure
learning algorithm, and serves as a correction learning phase that removes
potential false positive edges. The results show that the proposed correction
algorithm successfully improves the graphical score of four well-established
structure learning algorithms spanning different classes of learning in the
presence of measurement error.
- Abstract(参考訳): ベイジアンネットワークのグラフを観測データから学習する構造学習アルゴリズムは、データが変数の真の分布を正しく反映していると仮定することで、しばしばそうする。
しかし、この仮定は測定誤差の存在下では成立せず、スプリアスエッジにつながる可能性がある。
これらのアルゴリズムの合成性能が実世界の性能を過大評価する理由の1つである。
本稿では,任意の構造学習アルゴリズムの最後に追加学習フェーズとして追加でき,潜在的な偽正のエッジを除去する補正学習フェーズとして機能するアルゴリズムについて述べる。
その結果,提案アルゴリズムは,測定誤差の存在下で異なる学習クラスにまたがる4つの確立された構造学習アルゴリズムのグラフィカルスコアを改善することができた。
関連論文リスト
- A Mirror Descent-Based Algorithm for Corruption-Tolerant Distributed Gradient Descent [57.64826450787237]
本研究では, 分散勾配降下アルゴリズムの挙動を, 敵対的腐敗の有無で解析する方法を示す。
汚職耐性の分散最適化アルゴリズムを設計するために、(怠慢な)ミラー降下からアイデアをどう使うかを示す。
MNISTデータセットの線形回帰、サポートベクトル分類、ソフトマックス分類に基づく実験は、我々の理論的知見を裏付けるものである。
論文 参考訳(メタデータ) (2024-07-19T08:29:12Z) - Improved Graph-based semi-supervised learning Schemes [0.0]
本研究では,ラベルの少ない大規模データセットの分類に対処するため,いくつかの既知のアルゴリズムの精度を向上させる。
私たちのフレームワークは、グラフベースの半教師あり学習の領域にあります。
論文 参考訳(メタデータ) (2024-06-30T16:50:08Z) - Structured Prediction in Online Learning [66.36004256710824]
オンライン学習環境における構造化予測のための理論的・アルゴリズム的枠組みについて検討する。
このアルゴリズムは教師付き学習環境からの最適アルゴリズムの一般化であることを示す。
本稿では,非定常データ分布,特に逆データを含む2番目のアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2024-06-18T07:45:02Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Hybrid Bayesian network discovery with latent variables by scoring
multiple interventions [5.994412766684843]
離散データから構造学習を行うためのハイブリッドmFGS-BSアルゴリズムを提案する。
このアルゴリズムは潜伏変数の存在下で因果不整合を仮定し、部分アンセストラルグラフ(PAG)を生成する。
実験の結果,mFGS-BSは最先端技術と比較して構造学習精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2021-12-20T14:54:41Z) - Demystifying Deep Neural Networks Through Interpretation: A Survey [3.566184392528658]
現代のディープラーニングアルゴリズムは、トレーニングデータセットにおけるクロスエントロピー損失を最小限に抑えるなど、客観的なメトリックを最適化して学習する傾向にある。
問題は、単一の計量が現実世界のタスクの不完全な記述であることだ。
ニューラルネットワークの振る舞いや思考プロセスに関する洞察を提供するために、解釈可能性という問題に取り組む作業が行われている。
論文 参考訳(メタデータ) (2020-12-13T17:56:41Z) - Provably Robust Metric Learning [98.50580215125142]
既存のメトリクス学習アルゴリズムは、ユークリッド距離よりもロバストなメトリクスをもたらすことを示す。
対向摂動に対して頑健なマハラノビス距離を求めるための新しい距離学習アルゴリズムを提案する。
実験結果から,提案アルゴリズムは証明済みの堅牢な誤りと経験的堅牢な誤りの両方を改善した。
論文 参考訳(メタデータ) (2020-06-12T09:17:08Z) - Large-scale empirical validation of Bayesian Network structure learning
algorithms with noisy data [9.04391541965756]
本稿では、15個の構造学習アルゴリズムの性能について検討する。
各アルゴリズムは、複数のケーススタディ、サンプルサイズ、ノイズの種類、および複数の評価基準で評価される。
その結果、従来の合成性能は、実世界のパフォーマンスを10%以上50%以上で過大評価する可能性があることが示唆された。
論文 参考訳(メタデータ) (2020-05-18T18:40:09Z) - An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set [0.0]
我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
その結果,誤差位置の精度依存性はアルゴリズムとは無関係であることが判明した。
論文 参考訳(メタデータ) (2020-05-07T06:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。