論文の概要: BiRT: Bio-inspired Replay in Vision Transformers for Continual Learning
- arxiv url: http://arxiv.org/abs/2305.04769v1
- Date: Mon, 8 May 2023 15:19:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:01:08.802478
- Title: BiRT: Bio-inspired Replay in Vision Transformers for Continual Learning
- Title(参考訳): BiRT:視覚変換器のバイオインスパイアされたリプレイ
- Authors: Kishaan Jeeveswaran, Prashant Bhat, Bahram Zonooz, Elahe Arani
- Abstract要約: 人間は、破滅的な忘れ物なしに、生涯を通してタスクを通して知識を取得し、同化し、伝達する驚くべき能力を持っている。
視覚変換器を用いた表現リハーサルに基づく連続学習手法であるBiRTを提案する。
- 参考スコア(独自算出の注目度): 13.056764072568749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ability of deep neural networks to continually learn and adapt to a
sequence of tasks has remained challenging due to catastrophic forgetting of
previously learned tasks. Humans, on the other hand, have a remarkable ability
to acquire, assimilate, and transfer knowledge across tasks throughout their
lifetime without catastrophic forgetting. The versatility of the brain can be
attributed to the rehearsal of abstract experiences through a complementary
learning system. However, representation rehearsal in vision transformers lacks
diversity, resulting in overfitting and consequently, performance drops
significantly compared to raw image rehearsal. Therefore, we propose BiRT, a
novel representation rehearsal-based continual learning approach using vision
transformers. Specifically, we introduce constructive noises at various stages
of the vision transformer and enforce consistency in predictions with respect
to an exponential moving average of the working model. Our method provides
consistent performance gain over raw image and vanilla representation rehearsal
on several challenging CL benchmarks, while being memory efficient and robust
to natural and adversarial corruptions.
- Abstract(参考訳): 深層ニューラルネットワークが一連のタスクを継続的に学習し、適応する能力は、これまで学んだタスクを壊滅的に忘れてしまうため、依然として困難である。
一方、人間は、破滅的な忘れることなく、生涯にわたってタスク間で知識を取得し、同化し、伝達する素晴らしい能力を持っています。
脳の汎用性は、補完的な学習システムを通じて抽象的な経験のリハーサルに起因する。
しかし、視覚変換器における表現リハーサルは多様性に欠けており、結果として過度に適合し、結果として生画像リハーサルに比べて性能が著しく低下する。
そこで,視覚変換器を用いた表現リハーサルに基づく連続学習手法であるBiRTを提案する。
具体的には、視覚変換器の様々な段階で構成ノイズを導入し、作業モデルの指数移動平均に対する予測において一貫性を強制する。
本手法は,生画像とバニラ表現のリハーサルに対して,複数のclベンチマークで一貫した性能向上を実現するとともに,自然および敵対的腐敗に対するメモリ効率と堅牢性を提供する。
関連論文リスト
- Unveil Benign Overfitting for Transformer in Vision: Training Dynamics, Convergence, and Generalization [88.5582111768376]
本研究では, ソフトマックスを用いた自己保持層と, 勾配勾配下での完全連結層からなるトランスフォーマーの最適化について検討した。
この結果から,データモデルにおける信号対雑音比に基づいて,小さなテストエラー位相と大規模なテストエラー状態とを区別できるシャープ条件を確立した。
論文 参考訳(メタデータ) (2024-09-28T13:24:11Z) - Learning Expressive Prompting With Residuals for Vision Transformers [11.342913284654706]
視覚変換器(ViT)の有効適応に特化して学習パラダイムを改良したEXPRES(Expressive Prompts with Residuals)を提案する。
本手法は,VTABベンチマークの3/3カテゴリにおいて,画像分類,少ないショット学習,セマンティックセマンティックセマンティックセマンティクスにEXPRESを適用した。
論文 参考訳(メタデータ) (2023-03-27T20:47:01Z) - Amortised Invariance Learning for Contrastive Self-Supervision [11.042648980854485]
対照的な自己監督のために, 償却不変学習の概念を導入する。
我々のアモーテッド機能は、異なる不変条件で様々な下流タスクを学習する信頼性の高い方法を提供することを示す。
これは、汎用表現学習の分野での新しい地平を開くエキサイティングな視点を提供する。
論文 参考訳(メタデータ) (2023-02-24T16:15:11Z) - Vision Transformer for Contrastive Clustering [48.476602271481674]
Vision Transformer(ViT)は、畳み込みニューラルネットワーク(CNN)に対してその優位性を示している。
本稿では、VTCC(Vision Transformer for Contrastive Clustering)と呼ばれるエンドツーエンドのディープ・クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-26T17:00:35Z) - RePre: Improving Self-Supervised Vision Transformer with Reconstructive
Pre-training [80.44284270879028]
本稿では,Reconstructive Pre-Training (RePre) を用いて,局所特徴学習を自己教師型視覚変換器に組み込む。
我々のRePreは、既存のコントラストの目的と平行して生画像のピクセルを再構成するブランチを追加することで、コントラストのフレームワークを拡張します。
論文 参考訳(メタデータ) (2022-01-18T10:24:58Z) - ConvNets vs. Transformers: Whose Visual Representations are More
Transferable? [49.62201738334348]
本研究では,15個のシングルタスクおよびマルチタスク性能評価において,ConvNetと視覚変換器の伝達学習能力について検討する。
13の下流タスクでTransformerベースのバックボーンの一貫性のあるアドバンテージを観察した。
論文 参考訳(メタデータ) (2021-08-11T16:20:38Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Episodic Transformer for Vision-and-Language Navigation [142.6236659368177]
本稿では,長時間のサブタスク処理と複雑なヒューマンインストラクションの理解という2つの課題に取り組むことに焦点を当てる。
エピソード変換器(E.T.)を提案する。
言語入力と視覚観察と行動の全エピソード履歴を符号化するマルチモーダルトランスフォーマーである。
我々のアプローチは、挑戦的なALFREDベンチマークに新たな技術状況を設定し、見つからないテストの分割で38.4%と8.5%のタスク成功率を達成した。
論文 参考訳(メタデータ) (2021-05-13T17:51:46Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。