論文の概要: The Online Patch Redundancy Eliminator (OPRE): A novel approach to online agnostic continual learning using dataset compression
- arxiv url: http://arxiv.org/abs/2511.08226v1
- Date: Wed, 12 Nov 2025 01:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.70509
- Title: The Online Patch Redundancy Eliminator (OPRE): A novel approach to online agnostic continual learning using dataset compression
- Title(参考訳): Online Patch Redundancy Eliminator (OPRE): データセット圧縮を用いたオンライン非依存連続学習への新しいアプローチ
- Authors: Raphaël Bayle, Martial Mermillod, Robert M. French,
- Abstract要約: 我々は、ほとんどの継続的学習手法は、来るべきデータに関する事前情報を導入し、非依存とはみなせないと論じる。
事前学習した特徴抽出器は, モデルで学習可能なデータに対して, 一般性の喪失を示唆することを示す。
次に、オンラインデータセット圧縮アルゴリズムであるOnline Patch Redundancy Eliminator (OPRE)を提示する。
- 参考スコア(独自算出の注目度): 0.8220217498103312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to achieve Continual Learning (CL), the problem of catastrophic forgetting, one that has plagued neural networks since their inception, must be overcome. The evaluation of continual learning methods relies on splitting a known homogeneous dataset and learning the associated tasks one after the other. We argue that most CL methods introduce a priori information about the data to come and cannot be considered agnostic. We exemplify this point with the case of methods relying on pretrained feature extractors, which are still used in CL. After showing that pretrained feature extractors imply a loss of generality with respect to the data that can be learned by the model, we then discuss other kinds of a priori information introduced in other CL methods. We then present the Online Patch Redundancy Eliminator (OPRE), an online dataset compression algorithm, which, along with the training of a classifier at test time, yields performance on CIFAR-10 and CIFAR-100 superior to a number of other state-of-the-art online continual learning methods. Additionally, OPRE requires only minimal and interpretable hypothesis on the data to come. We suggest that online dataset compression could well be necessary to achieve fully agnostic CL.
- Abstract(参考訳): 連続学習(CL)を実現するためには,ニューラルネットワークの誕生以来悩まされてきた,破滅的な忘れ込みの問題が克服されなければならない。
連続学習手法の評価は、既知の同質なデータセットを分割し、関連するタスクを次々に学習することに依存する。
我々は、ほとんどのCLメソッドは、来るべきデータに関する事前情報を導入し、非依存とはみなせないと論じる。
この点を、CLでまだ使われている事前訓練された特徴抽出器に依存する手法の例で例示する。
事前学習された特徴抽出器は、モデルで学習できるデータに対して一般性の喪失を示唆することを示す後、他のCL法で導入された他の種類の事前情報について議論する。
次に、オンラインデータセット圧縮アルゴリズムであるOnline Patch Redundancy Eliminator(OPRE)を提示し、テスト時の分類器のトレーニングとともに、CIFAR-10およびCIFAR-100の性能を、他の最先端のオンライン連続学習手法よりも向上させる。
加えて、OPREはデータに対する最小限の解釈可能な仮説しか必要としない。
我々は,完全無依存CLを実現するためには,オンラインデータセット圧縮が必要であることを示唆している。
関連論文リスト
- ACU: Analytic Continual Unlearning for Efficient and Exact Forgetting with Privacy Preservation [39.0731790601695]
連続的アンラーニング(CU)は、連続的学習フェーズで取得した特定の知識を逐次忘れることを目的としている。
既存の未学習メソッドの多くは、再トレーニングや微調整のために保持されたデータセットにアクセスする必要がある。
本稿では,ACU (Analytic Continual Unlearning) と呼ばれるCUの勾配のない新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-18T05:28:18Z) - From Offline to Online Memory-Free and Task-Free Continual Learning via Fine-Grained Hypergradients [24.963242232471426]
継続的学習(CL)は、基礎となる分散が時間とともに変化する非定常データストリームから学ぶことを目的としている。
オンラインCL(onCL)は依然としてメモリベースのアプローチに支配されている。
トレーニング中に勾配更新を再バランスするオンラインメカニズムであるFine-Grained Hypergradientsを導入する。
論文 参考訳(メタデータ) (2025-02-26T02:43:54Z) - TS-ACL: Closed-Form Solution for Time Series-oriented Continual Learning [16.270548433574465]
時系列のクラス増分学習は、破滅的な忘れ物とクラス内のバリエーションの2つの大きな課題に直面している。
そこで, TS-ACLを提案する。これは, 傾きのない閉形式解を利用して, 悲惨な忘れ問題を回避する。
プライバシー保護と効率性も備えている。
論文 参考訳(メタデータ) (2024-10-21T12:34:02Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。