論文の概要: CLASSIC: Continual and Contrastive Learning of Aspect Sentiment
Classification Tasks
- arxiv url: http://arxiv.org/abs/2112.02714v1
- Date: Sun, 5 Dec 2021 23:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 08:28:33.684582
- Title: CLASSIC: Continual and Contrastive Learning of Aspect Sentiment
Classification Tasks
- Title(参考訳): CLASSIC:Aspect Sentiment Classification Tasksの継続的・コントラスト学習
- Authors: Zixuan Ke, Bing Liu, Hu Xu, Lei Shu
- Abstract要約: 本稿では、ドメインインクリメンタルラーニング(DIL)と呼ばれる特定のCL設定におけるアスペクト感情分類(ASC)タスクの連続的な学習について研究する。
DIL設定は、テスト時にシステムがテストデータが属するタスク/ドメインを知る必要がないため、ASCに特に適している。
重要な新規性は、タスク間の知識伝達と、古いタスクから新しいタスクへの知識蒸留の両方を可能にする、対照的な連続的な学習方法である。
- 参考スコア(独自算出の注目度): 23.515930312505954
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper studies continual learning (CL) of a sequence of aspect sentiment
classification(ASC) tasks in a particular CL setting called domain incremental
learning (DIL). Each task is from a different domain or product. The DIL
setting is particularly suited to ASC because in testing the system needs not
know the task/domain to which the test data belongs. To our knowledge, this
setting has not been studied before for ASC. This paper proposes a novel model
called CLASSIC. The key novelty is a contrastive continual learning method that
enables both knowledge transfer across tasks and knowledge distillation from
old tasks to the new task, which eliminates the need for task ids in testing.
Experimental results show the high effectiveness of CLASSIC.
- Abstract(参考訳): 本稿では、特定のcl設定におけるアスペクト感情分類(asc)タスクの連続学習(cl)をドメインインクリメンタル学習(dil)と呼ぶ。
各タスクは異なるドメインまたは製品から実行されます。
DIL設定は、テスト時にシステムがテストデータが属するタスク/ドメインを知る必要がないため、ASCに特に適している。
我々の知る限り、この設定はASCではこれまで研究されていない。
本稿ではCLASSICと呼ばれる新しいモデルを提案する。
重要な新規性は、タスク間の知識伝達と、古いタスクから新しいタスクへの知識蒸留の両方を可能にする対照的な連続的な学習方法である。
実験結果からCLASSICの有効性が示唆された。
関連論文リスト
- Class Incremental Learning with Task-Specific Batch Normalization and Out-of-Distribution Detection [25.224930928724326]
本研究では、画像分類のための漸進的な学習に焦点を当て、記憶やプライバシーの制約により古いデータへのアクセスが制限された場合、すべての学習知識の破滅的な忘れ込みを減らす方法について検討する。
漸進的な学習の課題は、可塑性、新しい知識を学ぶ能力、安定性、古い知識を維持する能力の最適なバランスを達成することである。
論文 参考訳(メタデータ) (2024-11-01T07:54:29Z) - Versatile Incremental Learning: Towards Class and Domain-Agnostic Incremental Learning [16.318126586825734]
インクリメンタルラーニング(IL)は、逐次入力タスクから知識を蓄積することを目的としている。
私たちはVersatile Incremental Learning (VIL) という,より挑戦的で現実的で,未探索のILシナリオを考えています。
Incremental with Shift cONtrol (ICON) という,シンプルで効果的なILフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T07:44:28Z) - Multi-Label Continual Learning for the Medical Domain: A Novel Benchmark [47.52603262576663]
一つのフレームワークにおける新しいクラス到着とドメインシフトの課題を組み合わせた新しいベンチマークを提案する。
本ベンチマークは,医療画像における多ラベル分類問題に対する現実的なCL設定をモデル化することを目的とする。
論文 参考訳(メタデータ) (2024-04-10T09:35:36Z) - Few-Shot Class Incremental Learning with Attention-Aware Self-Adaptive Prompt [58.880105981772324]
ASP(Attention-Aware Self-Adaptive Prompt)という新しいフレームワークを提案する。
ASP.NETはタスク不変のプロンプトを奨励し、注意点から特定の情報を減らすことで共有知識をキャプチャする。
要約すると、ASPはベースタスクの過度な適合を防ぎ、数秒のインクリメンタルタスクで膨大なデータを必要としない。
論文 参考訳(メタデータ) (2024-03-14T20:34:53Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Resolving Task Confusion in Dynamic Expansion Architectures for Class
Incremental Learning [27.872317837451977]
タスク間の差別的・公平な特徴利用を促進するために,タスク関連インクリメンタルラーニング(TCIL)を提案する。
TCILは、古いタスクから学んだ知識を新しいタスクに伝達するために、多段階の知識蒸留を行う。
結果は,TILが常に最先端の精度を達成していることを示す。
論文 参考訳(メタデータ) (2022-12-29T12:26:44Z) - Task-Adaptive Saliency Guidance for Exemplar-free Class Incremental Learning [60.501201259732625]
EFCILにタスク適応型サリエンシを導入し、タスク適応型サリエンシ・スーパービジョン(TASS)と呼ばれる新しいフレームワークを提案する。
提案手法は,CIFAR-100, Tiny-ImageNet, ImageNet-Subset EFCILベンチマークを用いて,タスク間のサリエンシマップの保存や,最先端の成果の達成に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-16T02:43:52Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Continual Learning with Knowledge Transfer for Sentiment Classification [20.5365406439092]
Kanは、フォワードとバックワードの知識伝達によって、新しいタスクと古いタスクの両方の精度を著しく向上させることができる。
カンの有効性は広範な実験によって実証される。
論文 参考訳(メタデータ) (2021-12-18T22:58:21Z) - Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment
Classification Tasks [22.28374603976649]
本稿では、アスペクト感情分類(ASC)タスクの連続的な学習について研究する。
一連のASCタスクを漸進的に学習するCLシステムは、以下の2つの問題に対処する必要がある。
これらの問題に対処するために、B-CLと呼ばれる新しいカプセルネットワークモデルが提案されている。
論文 参考訳(メタデータ) (2021-12-06T02:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。