論文の概要: Improving Open-world Continual Learning under the Constraints of Scarce Labeled Data
- arxiv url: http://arxiv.org/abs/2502.20974v1
- Date: Fri, 28 Feb 2025 11:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:25.113461
- Title: Improving Open-world Continual Learning under the Constraints of Scarce Labeled Data
- Title(参考訳): スカースラベルデータによるオープンワールド連続学習の改善
- Authors: Yujie Li, Xiangkun Wang, Xin Yang, Marcello Bonsangue, Junbo Zhang, Tianrui Li,
- Abstract要約: Openworld Continual Learning (OWCL)は、オープンサンプルによるシーケンシャルなタスクに適応し、忘れることを防ぐと同時に、知識を漸進的に学習する。
本稿では,(1)サンプル表現を付加的な知識で表現・強化するインスタンスワイドトークン拡張(ITA),(2)新しいタスクによるオープンな検出を支援するマージンベースのオープンバウンダリ(MOB),(3)未知を未知から未知に更新する知識を持つ適応的知識空間(AKS)の3つの重要なコンポーネントを統合する新しいOFCLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.168022702075774
- License:
- Abstract: Open-world continual learning (OWCL) adapts to sequential tasks with open samples, learning knowledge incrementally while preventing forgetting. However, existing OWCL still requires a large amount of labeled data for training, which is often impractical in real-world applications. Given that new categories/entities typically come with limited annotations and are in small quantities, a more realistic situation is OWCL with scarce labeled data, i.e., few-shot training samples. Hence, this paper investigates the problem of open-world few-shot continual learning (OFCL), challenging in (i) learning unbounded tasks without forgetting previous knowledge and avoiding overfitting, (ii) constructing compact decision boundaries for open detection with limited labeled data, and (iii) transferring knowledge about knowns and unknowns and even update the unknowns to knowns once the labels of open samples are learned. In response, we propose a novel OFCL framework that integrates three key components: (1) an instance-wise token augmentation (ITA) that represents and enriches sample representations with additional knowledge, (2) a margin-based open boundary (MOB) that supports open detection with new tasks emerge over time, and (3) an adaptive knowledge space (AKS) that endows unknowns with knowledge for the updating from unknowns to knowns. Finally, extensive experiments show the proposed OFCL framework outperforms all baselines remarkably with practical importance and reproducibility. The source code is released at https://github.com/liyj1201/OFCL.
- Abstract(参考訳): オープンワールド連続学習(OWCL)は、オープンサンプルによるシーケンシャルなタスクに適応し、忘れることを避けながら知識を漸進的に学習する。
しかし、既存のOWCLはトレーニングに大量のラベル付きデータを必要とするため、現実のアプリケーションでは実用的ではないことが多い。
新しいカテゴリやエンティティには通常アノテーションが限られており、少量であることを考えると、より現実的な状況はOWCLでラベル付きデータが少ないこと、すなわち数発のトレーニングサンプルである。
そこで,本稿では,オープンワールドにおける数発連発学習(OFCL)の課題について考察する。
一 それまでの知識を忘れず、過度に適合することを避けることなく、未定の課題を学ぶこと。
二 限定ラベル付きデータによるオープン検出のためのコンパクトな決定境界の構築及び
三 知識及び未知の知識を伝達し、公開サンプルのラベルが学習されたら、未知を未知に更新すること。
そこで本研究では,(1)サンプル表現を付加的な知識で表現・強化するインスタンスワイドトークン拡張(ITA),(2)新しいタスクによるオープンな検出を支援するマージンベースのオープンバウンダリ(MOB),(3)未知から未知への更新の知識を持つ適応的知識空間(AKS)の3つの重要なコンポーネントを統合した新しいOFCLフレームワークを提案する。
最後に、提案したOFCLフレームワークは、実用的重要性と再現性で全てのベースラインを著しく上回っていることを示す。
ソースコードはhttps://github.com/liyj1201/OFCLで公開されている。
関連論文リスト
- Uncertainty Quantification in Continual Open-World Learning [5.268548403469063]
連続学習の分野では、新規性への依存とオーラクルのラベル付けは非現実的であるにもかかわらず一般的である。
学習に適した反復的不確実性推定アルゴリズムであるCOUQ "Continual Open-world Uncertainty Quantification"を提案する。
提案手法の有効性を,複数のデータセット,アブレーション,バックボーン,パフォーマンスに比較して示す。
論文 参考訳(メタデータ) (2024-12-21T00:09:20Z) - Few-Shot Class Incremental Learning with Attention-Aware Self-Adaptive Prompt [58.880105981772324]
ASP(Attention-Aware Self-Adaptive Prompt)という新しいフレームワークを提案する。
ASP.NETはタスク不変のプロンプトを奨励し、注意点から特定の情報を減らすことで共有知識をキャプチャする。
要約すると、ASPはベースタスクの過度な適合を防ぎ、数秒のインクリメンタルタスクで膨大なデータを必要としない。
論文 参考訳(メタデータ) (2024-03-14T20:34:53Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - Learning to Prompt Knowledge Transfer for Open-World Continual Learning [13.604171414847531]
Pro-KTは,オープンワールド連続学習のための新しい知識伝達モデルである。
Pro-KTは、(1)タスクジェネリックな知識とタスク固有の知識の両方をエンコードし、転送するプロンプトバンク、(2)タスクアウェアなオープンセット境界により、新しいタスクの未知を識別する。
論文 参考訳(メタデータ) (2023-12-22T11:53:31Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Prompt-driven efficient Open-set Semi-supervised Learning [52.30303262499391]
オープンセット半教師付き学習(OSSL)は関心を集めており、未ラベルデータにのみOOD(Out-of-distribution)サンプルが組み込まれているというより実践的なシナリオを調査している。
我々はOpenPromptと呼ばれる,プロンプト駆動の効率的なOSSLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T16:25:08Z) - Learning with Recoverable Forgetting [77.56338597012927]
学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-17T16:42:31Z) - Knowledge-Spreader: Learning Facial Action Unit Dynamics with Extremely
Limited Labels [13.279676910432599]
我々は、深い半教師付きフレームワークKS(Knowledge-Spreader)を提案する。
KSは、アウト・オブ・ディストリビューションの一般化能力を強化するために、空間-テンポラルAU相関知識を学習する。
ラベル付きフレームからラベルなしデータへの空間的知識を拡散し、部分的にラベル付けされたビデオクリップの時間的情報を完成させる。
論文 参考訳(メタデータ) (2022-03-30T21:12:13Z) - A Review of Open-World Learning and Steps Toward Open-World Learning
Without Labels [11.380522815465984]
オープンワールド学習では、エージェントは既知のクラスのセットから始まり、知らないものを検出し、管理し、静止しないデータストリームから時間をかけて学習する。
本稿では,ラベルなしのオープンワールド学習を含む,様々なオープンワールド学習問題を定式化する。
論文 参考訳(メタデータ) (2020-11-25T17:41:03Z) - Learning Open Set Network with Discriminative Reciprocal Points [70.28322390023546]
オープンセット認識は、事前に定義されたクラスからサンプルを同時に分類し、残りを「未知」として識別することを目的としている。
本稿では,各既知圏に対応するクラス外空間のポテンシャル表現であるReciprocal Pointを提案する。
相互点によって構成される有界空間に基づいて、未知のリスクは多圏相互作用によって減少する。
論文 参考訳(メタデータ) (2020-10-31T03:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。