論文の概要: DP-CRE: Continual Relation Extraction via Decoupled Contrastive Learning
and Memory Structure Preservation
- arxiv url: http://arxiv.org/abs/2403.02718v1
- Date: Tue, 5 Mar 2024 07:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:49:27.044082
- Title: DP-CRE: Continual Relation Extraction via Decoupled Contrastive Learning
and Memory Structure Preservation
- Title(参考訳): dp-cre:分離コントラスト学習と記憶構造保存による連続的関係抽出
- Authors: Mengyi Huang, Meng Xiao, Ludi Wang, Yi Du
- Abstract要約: 連続関係抽出(CRE)は、非定常データストリームから関係知識を漸進的に学習することを目的としている。
現在のリプレイベースのトレーニングパラダイムは、すべてのデータを均一に優先順位付けし、複数のラウンドでメモリサンプルをトレーニングする。
我々は、事前情報保存と新たな知識獲得のプロセスを分離するDecouPled CREフレームワークを導入する。
- 参考スコア(独自算出の注目度): 4.303714963263037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous Relation Extraction (CRE) aims to incrementally learn relation
knowledge from a non-stationary stream of data. Since the introduction of new
relational tasks can overshadow previously learned information, catastrophic
forgetting becomes a significant challenge in this domain. Current replay-based
training paradigms prioritize all data uniformly and train memory samples
through multiple rounds, which would result in overfitting old tasks and
pronounced bias towards new tasks because of the imbalances of the replay set.
To handle the problem, we introduce the DecouPled CRE (DP-CRE) framework that
decouples the process of prior information preservation and new knowledge
acquisition. This framework examines alterations in the embedding space as new
relation classes emerge, distinctly managing the preservation and acquisition
of knowledge. Extensive experiments show that DP-CRE significantly outperforms
other CRE baselines across two datasets.
- Abstract(参考訳): 連続関係抽出(CRE)は、非定常データストリームから関係知識を漸進的に学習することを目的としている。
新しいリレーショナルタスクの導入は、以前の学習した情報を過大評価することができるため、この領域では破滅的な忘れることが大きな課題となる。
現在のリプレイベースのトレーニングパラダイムは、すべてのデータを統一的に優先順位付けし、複数のラウンドを通じてメモリサンプルをトレーニングする。
この問題に対処するために,事前情報保存と新たな知識獲得のプロセスを切り離したDecouPled CRE(DP-CRE)フレームワークを導入する。
この枠組みは,新たな関係クラスが出現するにつれて,埋め込み空間における変化を検証し,知識の保存と獲得を明確に管理する。
大規模な実験により、DP-CREは他のCREベースラインを2つのデータセットで大幅に上回った。
関連論文リスト
- Joint Input and Output Coordination for Class-Incremental Learning [84.36763449830812]
本稿では,これらの問題に対処するためのJIOC機構を提案する。
このメカニズムは、出力スコアの勾配に応じて異なるカテゴリのデータに異なる重みを割り当てる。
メモリストレージを使用するさまざまなインクリメンタルな学習アプローチに組み込むことができる。
論文 参考訳(メタデータ) (2024-09-09T13:55:07Z) - OER: Offline Experience Replay for Continual Offline Reinforcement Learning [25.985985377992034]
エージェントには、事前にコンパイルされたオフラインデータセットのシーケンスを通じて、新たなスキルを継続的に学習することが望ましい。
本稿では、エージェントが一連のオフライン強化学習タスクを学習する、新しい設定である連続オフライン強化学習(CORL)を定式化する。
本稿では,リプレイバッファを構築するためのモデルベースエクスペリエンス選択手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T08:16:44Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Learning an evolved mixture model for task-free continual learning [11.540150938141034]
タスク自由連続学習(TFCL)では,非定常データストリーム上で,明示的なタスク情報を持たないモデルを訓練する。
メモリ過負荷を回避するため,記憶されているサンプルを選択的に削除する2つの単純なドロップアウト機構を導入する。
論文 参考訳(メタデータ) (2022-07-11T16:01:27Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Consistent Representation Learning for Continual Relation Extraction [18.694012937149495]
関係埋め込みの安定性を維持する一貫した表現学習法を提案する。
我々の手法は最先端のベースラインを著しく上回り、不均衡なデータセットに強い堅牢性をもたらす。
論文 参考訳(メタデータ) (2022-03-05T12:16:34Z) - Continual Few-shot Relation Learning via Embedding Space Regularization
and Data Augmentation [4.111899441919165]
従来のタスク知識の破滅的な忘れを回避しつつ,ラベル付きデータが少ない新しい関係パターンを学習する必要がある。
埋め込み空間の正規化とデータ拡張に基づく新しい手法を提案する。
提案手法は,新たな数発タスクに一般化し,リレーショナル埋め込みに対する追加制約を課し,自己管理的なデータ追加を行うことにより,過去のタスクの破滅的な忘れを回避している。
論文 参考訳(メタデータ) (2022-03-04T05:19:09Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。