論文の概要: Curriculum Abductive Learning
- arxiv url: http://arxiv.org/abs/2505.12275v1
- Date: Sun, 18 May 2025 07:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.136627
- Title: Curriculum Abductive Learning
- Title(参考訳): カリキュラム・アブダクティブ・ラーニング
- Authors: Wen-Chao Hu, Qi-Jie Li, Lin-Han Jia, Cunjing Ge, Yu-Feng Li, Yuan Jiang, Zhi-Hua Zhou,
- Abstract要約: 帰納的学習(ABL)は、ループ内の論理的推論と機械学習を統合する。
誘拐の非決定性のため、トレーニングプロセスは不安定性に悩まされることが多い。
本稿では,ABLの学習課題に対処するため,C-ABL(Curriculum Abductive Learning)を提案する。
- 参考スコア(独自算出の注目度): 74.60543769612696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abductive Learning (ABL) integrates machine learning with logical reasoning in a loop: a learning model predicts symbolic concept labels from raw inputs, which are revised through abduction using domain knowledge and then fed back for retraining. However, due to the nondeterminism of abduction, the training process often suffers from instability, especially when the knowledge base is large and complex, resulting in a prohibitively large abduction space. While prior works focus on improving candidate selection within this space, they typically treat the knowledge base as a static black box. In this work, we propose Curriculum Abductive Learning (C-ABL), a method that explicitly leverages the internal structure of the knowledge base to address the ABL training challenges. C-ABL partitions the knowledge base into a sequence of sub-bases, progressively introduced during training. This reduces the abduction space throughout training and enables the model to incorporate logic in a stepwise, smooth way. Experiments across multiple tasks show that C-ABL outperforms previous ABL implementations, significantly improves training stability, convergence speed, and final accuracy, especially under complex knowledge setting.
- Abstract(参考訳): ABL(Abductive Learning)は、学習モデルが生の入力からシンボリックな概念ラベルを予測し、ドメイン知識を使用して誘拐によって修正され、再訓練のためにフィードバックされる。
しかし、誘拐の非決定性のため、特に知識基盤が巨大で複雑な場合、トレーニングプロセスは不安定な状態に陥り、明らかに大きな誘拐空間となる。
以前の作業では、この分野における候補選択の改善に重点を置いていたが、一般的には知識ベースを静的なブラックボックスとして扱う。
本研究では,知識ベースの内部構造を明示的に活用し,ABL学習課題に対処するC-ABL(Curriculum Abductive Learning)を提案する。
C-ABLは知識ベースを訓練中に徐々に導入される一連のサブベースに分割する。
これにより、トレーニング全体を通じて推論スペースを削減し、ステップワイズでスムーズな方法でロジックを組み込むことができる。
複数のタスクにわたる実験により、C-ABLは以前のABL実装よりも優れており、特に複雑な知識設定下で、トレーニングの安定性、収束速度、最終的な精度を大幅に向上することが示された。
関連論文リスト
- A Smooth Transition Between Induction and Deduction: Fast Abductive Learning Based on Probabilistic Symbol Perception [81.30687085692576]
確率的シンボル知覚(PSP)と呼ばれる最適化アルゴリズムを導入し,誘導と推論のスムーズな遷移を実現する。
実験は有望な結果を実証する。
論文 参考訳(メタデータ) (2025-02-18T14:59:54Z) - CODE-CL: Conceptor-Based Gradient Projection for Deep Continual Learning [6.738409533239947]
深層ニューラルネットワークは、タスクを逐次学習する際に破滅的な忘れに苦しむ。
最近のアプローチでは、勾配投影を用いた部分空間の更新が制限されている。
本稿では,Deep Continual Learning (CODE-CL) のための概念ベース勾配予測法を提案する。
論文 参考訳(メタデータ) (2024-11-21T22:31:06Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - CBA: Improving Online Continual Learning via Continual Bias Adaptor [44.1816716207484]
本稿では,学習中の破滅的な分布変化に対応するために,分類器ネットワークを増強する連続バイアス適応器を提案する。
テスト段階では、CBAを削除できるため、追加のコストとメモリオーバーヘッドは発生しない。
提案手法が破滅的な分布変化を効果的に軽減できる理由を理論的に明らかにする。
論文 参考訳(メタデータ) (2023-08-14T04:03:51Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。