論文の概要: Unsupervised Continual Learning via Self-Adaptive Deep Clustering
Approach
- arxiv url: http://arxiv.org/abs/2106.14563v1
- Date: Mon, 28 Jun 2021 10:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 14:00:03.781081
- Title: Unsupervised Continual Learning via Self-Adaptive Deep Clustering
Approach
- Title(参考訳): 自己適応型深層クラスタリングアプローチによる教師なし連続学習
- Authors: Mahardhika Pratama, Andri Ashfahani, Edwin Lughofer
- Abstract要約: 本稿では,自己適応型深層学習者(KIERA)の知識保持について述べる。
KIERAは、弾力性のあるネットワーク構造を持つフレキシブル・ディープ・クラスタリング・アプローチの概念から開発され、時間的に変化する環境に対処する。
- 参考スコア(独自算出の注目度): 20.628084936538055
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised continual learning remains a relatively uncharted territory in
the existing literature because the vast majority of existing works call for
unlimited access of ground truth incurring expensive labelling cost. Another
issue lies in the problem of task boundaries and task IDs which must be known
for model's updates or model's predictions hindering feasibility for real-time
deployment. Knowledge Retention in Self-Adaptive Deep Continual Learner,
(KIERA), is proposed in this paper. KIERA is developed from the notion of
flexible deep clustering approach possessing an elastic network structure to
cope with changing environments in the timely manner. The centroid-based
experience replay is put forward to overcome the catastrophic forgetting
problem. KIERA does not exploit any labelled samples for model updates while
featuring a task-agnostic merit. The advantage of KIERA has been numerically
validated in popular continual learning problems where it shows highly
competitive performance compared to state-of-the art approaches. Our
implementation is available in
\textit{\url{https://github.com/ContinualAL/KIERA}}.
- Abstract(参考訳): 教師なしの連続学習は、既存の作品の大多数が高価なラベル費用を伴う基礎的真理の無制限アクセスを要求するため、既存の文献において比較的未開の領域である。
もう1つの問題は、モデルのアップデートやモデルの予測で知られなければならないタスク境界とタスクidの問題であり、リアルタイムデプロイメントの実現を妨げている。
本稿では,自己適応型Deep Continual Learner(KIERA)の知識保持について述べる。
kieraは、環境の変化をタイムリーに対処するために、柔軟なネットワーク構造を持つフレキシブルなディープクラスタリングアプローチの概念から開発された。
centroidベースの体験リプレイは、壊滅的な忘れる問題を克服するために行われる。
KIERAは、タスクに依存しないメリットを特徴として、ラベル付きサンプルをモデル更新に利用していない。
KIERAの利点は、最先端技術に比べて高い競争力を示す一般的な連続学習問題において数値的に検証されている。
私たちの実装は、textit{\url{https://github.com/ContinualAL/KIERA}}で利用可能です。
関連論文リスト
- Continual Task Learning through Adaptive Policy Self-Composition [54.95680427960524]
CompoFormerは構造ベースの連続トランスフォーマーモデルであり、メタポリシックネットワークを介して、以前のポリシーを適応的に構成する。
実験の結果,CompoFormerは従来の継続学習法(CL)よりも優れており,特にタスクシーケンスが長いことが判明した。
論文 参考訳(メタデータ) (2024-11-18T08:20:21Z) - Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Forgetting, Ignorance or Myopia: Revisiting Key Challenges in Online Continual Learning [29.65600202138321]
高速なデータストリーム環境では、遅いモデルに対応するためにデータが停止しない。
モデルの無知: OCLのシングルパスの性質は、制約付きトレーニング時間内で効果的な機能を学ぶためにモデルに挑戦する。
モデルのミオピア:OCLの局所的な学習特性は、過度に単純化されたタスク固有の機能を採用するモデルに導かれる。
論文 参考訳(メタデータ) (2024-09-28T05:24:56Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery [76.63807209414789]
我々は,クラスiNCDにおける現状問題に挑戦し,クラス発見を継続的に,真に教師なしで行う学習パラダイムを提案する。
凍結したPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - Instance exploitation for learning temporary concepts from sparsely
labeled drifting data streams [15.49323098362628]
ストリーミングデータソースからの継続的な学習がますます人気を博している。
動的で絶え間ない問題に対処することは 新たな課題を引き起こします
最も重要な制限の1つは、有限で完全なデータセットにアクセスできないことである。
論文 参考訳(メタデータ) (2020-09-20T08:11:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。