論文の概要: Learning Logic Programs From Noisy Failures
- arxiv url: http://arxiv.org/abs/2201.03702v1
- Date: Tue, 28 Dec 2021 16:48:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-16 16:18:52.580758
- Title: Learning Logic Programs From Noisy Failures
- Title(参考訳): 雑音下の障害から論理プログラムを学ぶ
- Authors: John Wahlig
- Abstract要約: 本稿では,以前に導入した障害学習(LFF)アプローチのノイズハンドリングである,障害アプローチからILPへの緩和学習を紹介する。
また、この緩和されたアプローチを実装し、既存のPopperシステムの変更である、新しいノイズポッパーLPシステムについても紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inductive Logic Programming (ILP) is a form of machine learning (ML) which in
contrast to many other state of the art ML methods typically produces highly
interpretable and reusable models. However, many ILP systems lack the ability
to naturally learn from any noisy or partially misclassified training data. We
introduce the relaxed learning from failures approach to ILP, a noise handling
modification of the previously introduced learning from failures (LFF) approach
which is incapable of handling noise. We additionally introduce the novel Noisy
Popper ILP system which implements this relaxed approach and is a modification
of the existing Popper system. Like Popper, Noisy Popper takes a
generate-test-constrain loop to search its hypothesis space wherein failed
hypotheses are used to construct hypothesis constraints. These constraints are
used to prune the hypothesis space, making the hypothesis search more
efficient. However, in the relaxed setting, constraints are generated in a more
lax fashion as to avoid allowing noisy training data to lead to hypothesis
constraints which prune optimal hypotheses. Constraints unique to the relaxed
setting are generated via hypothesis comparison. Additional constraints are
generated by weighing the accuracy of hypotheses against their sizes to avoid
overfitting through an application of the minimum description length. We
support this new setting through theoretical proofs as well as experimental
results which suggest that Noisy Popper improves the noise handling
capabilities of Popper but at the cost of overall runtime efficiency.
- Abstract(参考訳): 帰納的論理プログラミング(英: Inductive Logic Programming、ILP)は、機械学習(ML)の一種であり、他の最先端のML手法とは対照的である。
しかし、多くのILPシステムは、ノイズや部分的に分類されたトレーニングデータから自然に学習する能力に欠ける。
本稿では,従来導入されていたlff(learning from failures)アプローチのノイズ処理修正であるilpについて,障害からのゆるやかな学習について紹介する。
また、この緩和されたアプローチを実装し、既存のPopperシステムを変更する新しいノイズポッパーLPシステムについても紹介する。
Popper と同様に、Noisy Popper は生成-テスト-制約ループを使って仮説空間を探索する。
これらの制約は仮説空間を立証するために使われ、仮説探索をより効率的にする。
しかし、緩和された設定では、ノイズの多いトレーニングデータが最適な仮説を立証する仮説の制約に繋がることを避けるために、よりゆるい方法で制約が生成される。
緩和された設定に特有の制約は仮説比較によって生成される。
最小記述長の適用による過度な適合を避けるために、それらのサイズに対する仮説の精度を測ることで、追加の制約が生成される。
理論的な証明と実験結果により,popperのノイズ処理性能は改善するが,全体のランタイム効率は向上することが示唆された。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Limitations of probabilistic error cancellation for open dynamics beyond
sampling overhead [1.1864834557465163]
確率的誤差キャンセルのような手法は、進化を有限時間ステップに離散化し、各時間ステップの後に緩和層を適用することに依存する。
これは、たとえエラー軽減が理想的に実装されたとしても、シミュレーション結果にトロッターのようなエラーを引き起こす可能性がある。
シミュレーション対象のユニタリ部,デバイスノイズ部,オープンダイナミックスのノイズ部との交換関係によって決定されることを示す。
論文 参考訳(メタデータ) (2023-08-02T21:45:06Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Learnability, Sample Complexity, and Hypothesis Class Complexity for
Regression Models [10.66048003460524]
この研究はPACの基礎に触発され、既存の回帰学習問題に動機付けられている。
提案手法はEpsilon-Confidence Aough Correct (epsilon CoAC)で示され、Kullback Leibler divergence(相対エントロピー)を利用する。
これにより、学習者は異なる複雑性順序の仮説クラスを比較でき、それらの中から最小のエプシロンを最適に選択できる。
論文 参考訳(メタデータ) (2023-03-28T15:59:12Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Square Root Principal Component Pursuit: Tuning-Free Noisy Robust Matrix
Recovery [8.581512812219737]
本稿では,ノイズや外周波で劣化した観測結果から低ランク行列を復元する新しい枠組みを提案する。
平方根のラッソにインスパイアされたこの新しい定式化は、ノイズレベルに関する事前の知識を必要としない。
正規化パラメータの1つの普遍的な選択は、(事前未知の)雑音レベルに比例した再構成誤差を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2021-06-17T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。