論文の概要: Incremental Learning with Repetition via Pseudo-Feature Projection
- arxiv url: http://arxiv.org/abs/2502.19922v1
- Date: Thu, 27 Feb 2025 09:43:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:59:32.961512
- Title: Incremental Learning with Repetition via Pseudo-Feature Projection
- Title(参考訳): Pseudo-Feature Projectionによる反復によるインクリメンタルラーニング
- Authors: Benedikt Tscheschner, Eduardo Veas, Marc Masana,
- Abstract要約: 本研究では,データ反復による非定型的な漸進的学習戦略の影響について検討する。
提案手法は, 従来のシナリオにおいて, 繰り返しを伴わない競争結果と, 繰り返しを伴わない場合の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 3.4734633097581815
- License:
- Abstract: Incremental Learning scenarios do not always represent real-world inference use-cases, which tend to have less strict task boundaries, and exhibit repetition of common classes and concepts in their continual data stream. To better represent these use-cases, new scenarios with partial repetition and mixing of tasks are proposed, where the repetition patterns are innate to the scenario and unknown to the strategy. We investigate how exemplar-free incremental learning strategies are affected by data repetition, and we adapt a series of state-of-the-art approaches to analyse and fairly compare them under both settings. Further, we also propose a novel method (Horde), able to dynamically adjust an ensemble of self-reliant feature extractors, and align them by exploiting class repetition. Our proposed exemplar-free method achieves competitive results in the classic scenario without repetition, and state-of-the-art performance in the one with repetition.
- Abstract(参考訳): インクリメンタルラーニングのシナリオは、必ずしも現実の推論のユースケースを表すものではなく、厳密なタスク境界が低く、連続的なデータストリームで共通のクラスや概念を繰り返し示す傾向がある。
これらのユースケースをよりよく表現するために、部分的な繰り返しとタスクの混合を伴う新しいシナリオを提案し、繰り返しパターンはシナリオに生まれて戦略に未知である。
本研究では,データ繰り返しによる非定型的な漸進的学習戦略の影響について検討し,その分析と比較を行うために,一連の最先端アプローチを適用した。
さらに,自己回復型特徴抽出器のアンサンブルを動的に調整し,クラス繰り返しを利用して調整できる新しい手法(Horde)を提案する。
提案手法は, 従来のシナリオにおいて, 繰り返しを伴わない競争結果と, 繰り返しを伴わない場合の最先端性能を実現する。
関連論文リスト
- ReconBoost: Boosting Can Achieve Modality Reconcilement [89.4377895465204]
我々は、調和を達成するために、モダリティ代替学習パラダイムについて研究する。
固定モードを毎回更新するReconBoostと呼ばれる新しい手法を提案する。
提案手法はFriedman's Gradient-Boosting (GB) アルゴリズムに似ており,更新された学習者が他者による誤りを訂正できることを示す。
論文 参考訳(メタデータ) (2024-05-15T13:22:39Z) - Continual Learning in the Presence of Repetition [29.03044158045849]
継続的学習(CL)は、絶え間なく進化する環境でモデルをトレーニングするためのフレームワークを提供する。
データストリームにおける繰り返しの概念は、CLの標準ベンチマークではよく考慮されない。
本稿では,CVPR 2023におけるCLVisionチャレンジの要約を紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:15:48Z) - GUIDE: Guidance-based Incremental Learning with Diffusion Models [3.046689922445082]
GUIDEは,拡散モデルからサンプルのリハーサルを誘導する,新しい連続学習手法である。
実験の結果,GUIDEは破滅的忘れを著しく減らし,従来のランダムサンプリング手法より優れ,生成的再生を伴う継続的な学習における最近の最先端の手法を超越した。
論文 参考訳(メタデータ) (2024-03-06T18:47:32Z) - Learning with Complementary Labels Revisited: The Selected-Completely-at-Random Setting Is More Practical [66.57396042747706]
補完ラベル学習は、弱教師付き学習問題である。
均一分布仮定に依存しない一貫したアプローチを提案する。
相補的なラベル学習は、負のラベル付きバイナリ分類問題の集合として表現できる。
論文 参考訳(メタデータ) (2023-11-27T02:59:17Z) - Class-Incremental Learning with Repetition [17.89286445250716]
繰り返しがストリームの定義に埋め込まれるCIR(Class-Incremental with Repetition)シナリオのファミリーに焦点を当てる。
1つのデータセットといくつかの解釈可能なパラメータから始まる幅広いCIRストリームを生成する2つのストリームジェネレータを提案する。
次に、繰り返しを利用して、ストリームに存在する自然な不均衡に対処する新しいリプレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-01-26T20:19:10Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - An Investigation of Replay-based Approaches for Continual Learning [79.0660895390689]
連続学習(CL)は機械学習(ML)の大きな課題であり、破滅的忘れ(CF)を伴わずに連続的に複数のタスクを学習する能力を記述する。
いくつかの解クラスが提案されており、その単純さと堅牢性から、いわゆるリプレイベースのアプローチは非常に有望であるように思われる。
連続学習におけるリプレイに基づくアプローチを実証的に検討し,応用の可能性を評価する。
論文 参考訳(メタデータ) (2021-08-15T15:05:02Z) - Open-Set Representation Learning through Combinatorial Embedding [62.05670732352456]
ラベル付きクラスとラベルなしクラスの両方の例に基づく表現学習を通じて、データセットにおける新しい概念を識別することに興味がある。
異種ラベル空間上の複数の教師付きメタクラス分類器によって与えられる構成知識を用いて、自然に未知のクラス内のサンプルをクラスタリングする学習手法を提案する。
提案アルゴリズムは,未確認クラスの識別性の向上と,新しいクラスに一般化可能な既知のクラス表現の学習を併用して,新しい概念を探索する。
論文 参考訳(メタデータ) (2021-06-29T11:51:57Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。