論文の概要: CODA-Prompt: COntinual Decomposed Attention-based Prompting for
Rehearsal-Free Continual Learning
- arxiv url: http://arxiv.org/abs/2211.13218v2
- Date: Thu, 30 Mar 2023 17:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 17:43:27.536064
- Title: CODA-Prompt: COntinual Decomposed Attention-based Prompting for
Rehearsal-Free Continual Learning
- Title(参考訳): CODA-Prompt:リハーサルなし連続学習のための意図に基づく意識型プロンプト
- Authors: James Seale Smith, Leonid Karlinsky, Vyshnavi Gutta, Paola
Cascante-Bonilla, Donghyun Kim, Assaf Arbelle, Rameswar Panda, Rogerio Feris,
Zsolt Kira
- Abstract要約: コンピュータビジョンモデルは、継続的なトレーニングデータから新しい概念を学ぶ際に、破滅的な忘れという現象に悩まされる。
データリハーサルに代わるアプローチを提案する。
我々は,従来のSOTA法であるDualPromptを,平均的な最終精度で最大4.5%上回っていることを示す。
- 参考スコア(独自算出の注目度): 30.676509834338884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision models suffer from a phenomenon known as catastrophic
forgetting when learning novel concepts from continuously shifting training
data. Typical solutions for this continual learning problem require extensive
rehearsal of previously seen data, which increases memory costs and may violate
data privacy. Recently, the emergence of large-scale pre-trained vision
transformer models has enabled prompting approaches as an alternative to
data-rehearsal. These approaches rely on a key-query mechanism to generate
prompts and have been found to be highly resistant to catastrophic forgetting
in the well-established rehearsal-free continual learning setting. However, the
key mechanism of these methods is not trained end-to-end with the task
sequence. Our experiments show that this leads to a reduction in their
plasticity, hence sacrificing new task accuracy, and inability to benefit from
expanded parameter capacity. We instead propose to learn a set of prompt
components which are assembled with input-conditioned weights to produce
input-conditioned prompts, resulting in a novel attention-based end-to-end
key-query scheme. Our experiments show that we outperform the current SOTA
method DualPrompt on established benchmarks by as much as 4.5% in average final
accuracy. We also outperform the state of art by as much as 4.4% accuracy on a
continual learning benchmark which contains both class-incremental and
domain-incremental task shifts, corresponding to many practical settings. Our
code is available at https://github.com/GT-RIPL/CODA-Prompt
- Abstract(参考訳): コンピュータビジョンモデルは、連続的なトレーニングデータから新しい概念を学ぶとき、破滅的な忘れと呼ばれる現象に苦しむ。
この継続学習問題の典型的な解決策は、以前見られたデータの広範なリハーサルを必要とする。
近年,大規模な事前学習型視覚トランスフォーマーモデルの出現により,データリハーサルの代替として,プロンプトアプローチが実現されている。
これらのアプローチは、プロンプトを生成するキークエリ機構に依存しており、十分に確立されたリハーサルのない連続学習環境において、破滅的な忘れ方に非常に耐性があることが判明した。
しかし、これらのメソッドの重要なメカニズムは、タスクシーケンスでエンドツーエンドを訓練するものではない。
実験の結果,これによって可塑性が低下し,新たなタスク精度が犠牲になり,パラメータの容量が拡張できないことがわかった。
そこで我々は,入力条件付きプロンプトを生成するために,入力条件付き重みで組み立てられた一連のプロンプトコンポーネントを学習することを提案する。
実験により,既存のSOTA法であるDualPromptを,平均的な最終精度で最大4.5%上回る結果を得た。
また,多くの実践的設定に対応するクラス単位とドメイン単位の両方のタスクシフトを含む連続学習ベンチマークにおいて,芸術の状態を最大4.4%精度で上回っている。
私たちのコードはhttps://github.com/GT-RIPL/CODA-Promptで利用可能です。
関連論文リスト
- Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Revisiting the Power of Prompt for Visual Tuning [50.11465784194896]
本研究では,プロンプトとパッチトークンの相互関係について検討した。
プロンプトトークンはパッチトークンと高い相互情報を共有する傾向にあるという観測から着想を得て,下流トークンのプロトタイプを用いた初期化プロンプトを提案する。
本手法は, 自己指導型プレトレーニングの適応性を著しく向上させ, 少なくとも10%から30%のタスク性能向上を実現した。
論文 参考訳(メタデータ) (2024-02-04T07:49:02Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Robust Machine Learning by Transforming and Augmenting Imperfect
Training Data [6.928276018602774]
この論文は、現代の機械学習のいくつかのデータ感度を探求する。
まず、トレーニングデータで測定された事前の人間の識別をMLが符号化するのを防ぐ方法について論じる。
次に、トレーニング中に予測忠実度を提供するが、デプロイ時に信頼性が低い突発的特徴を含むデータから学習する問題について論じる。
論文 参考訳(メタデータ) (2023-12-19T20:49:28Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Always Be Dreaming: A New Approach for Data-Free Class-Incremental
Learning [73.24988226158497]
データフリークラスインクリメンタルラーニング(DFCIL)における高インパクト問題について考察する。
そこで本研究では, 改良型クロスエントロピートレーニングと重要重み付き特徴蒸留に寄与するDFCILの新たなインクリメンタル蒸留戦略を提案する。
本手法は,共通クラスインクリメンタルベンチマークにおけるSOTA DFCIL法と比較して,最終タスク精度(絶対差)が25.1%向上する。
論文 参考訳(メタデータ) (2021-06-17T17:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。