論文の概要: Susceptibility of Continual Learning Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2207.05225v4
- Date: Tue, 26 Sep 2023 20:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 00:14:37.143101
- Title: Susceptibility of Continual Learning Against Adversarial Attacks
- Title(参考訳): 敵対的攻撃に対する連続学習の感受性
- Authors: Hikmat Khan, Pir Masoom Shah, Syed Farhan Alam Zaidi, Saif ul Islam
- Abstract要約: 本研究では,現在および以前取得したタスクを含む継続的な学習課題の敵攻撃に対する感受性について検討する。
このような学習タスクの攻撃に対する感受性や脆弱性は、データの完全性とプライバシに関する深刻な懸念を引き起こす。
本稿では,正規化に基づく3つの手法,リプレイに基づく3つのアプローチ,リプレイと模範的アプローチを組み合わせた1つのハイブリッド手法の堅牢性について検討する。
- 参考スコア(独自算出の注目度): 1.5020330976600735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent continual learning approaches have primarily focused on mitigating
catastrophic forgetting. Nevertheless, two critical areas have remained
relatively unexplored: 1) evaluating the robustness of proposed methods and 2)
ensuring the security of learned tasks. This paper investigates the
susceptibility of continually learned tasks, including current and previously
acquired tasks, to adversarial attacks. Specifically, we have observed that any
class belonging to any task can be easily targeted and misclassified as the
desired target class of any other task. Such susceptibility or vulnerability of
learned tasks to adversarial attacks raises profound concerns regarding data
integrity and privacy. To assess the robustness of continual learning
approaches, we consider continual learning approaches in all three scenarios,
i.e., task-incremental learning, domain-incremental learning, and
class-incremental learning. In this regard, we explore the robustness of three
regularization-based methods, three replay-based approaches, and one hybrid
technique that combines replay and exemplar approaches. We empirically
demonstrated that in any setting of continual learning, any class, whether
belonging to the current or previously learned tasks, is susceptible to
misclassification. Our observations identify potential limitations of continual
learning approaches against adversarial attacks and highlight that current
continual learning algorithms could not be suitable for deployment in
real-world settings.
- Abstract(参考訳): 最近の継続的な学習アプローチは主に破滅的な忘れを緩和することに焦点を当てている。
しかし、2つの重要な領域は比較的未発見のままである。
1)提案手法のロバスト性の評価及び評価
2)学習課題の安全性の確保。
本稿では,現在および以前取得したタスクを含む継続的な学習課題の敵攻撃に対する感受性について検討する。
具体的には、任意のタスクに属するクラスが、他のタスクの希望するターゲットクラスとして簡単にターゲットと誤分類できることを観察しました。
このような学習タスクの攻撃に対する感受性や脆弱性は、データの完全性とプライバシに関する深刻な懸念を引き起こす。
連続学習アプローチのロバスト性を評価するために,タスク・インクリメンタル学習,ドメイン・インクリメンタル学習,クラスインクリメンタル学習という3つのシナリオすべてにおいて,連続学習アプローチを検討する。
本稿では,正規化に基づく3つの手法,リプレイに基づく3つのアプローチ,リプレイと模範的アプローチを組み合わせた1つのハイブリッド手法の堅牢性について検討する。
実験により, 連続学習のあらゆる場面において, 現行や以前に学習されたタスクに属するあらゆるクラスが, 誤分類の影響を受けやすいことを示した。
本研究は, 対人攻撃に対する連続学習アプローチの潜在的な限界を特定し, 現在の連続学習アルゴリズムが実環境への展開に適さないことを強調した。
関連論文リスト
- A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - A Comprehensive Survey of Continual Learning: Theory, Method and
Application [64.23253420555989]
本稿では,基礎的設定,理論的基礎,代表的方法,実践的応用を橋渡しする継続的学習に関する包括的調査を行う。
連続学習の一般的な目的は、資源効率の文脈において、適切な安定性と塑性のトレードオフと適切なタスク内/タスク内一般化性を保証することであると要約する。
論文 参考訳(メタデータ) (2023-01-31T11:34:56Z) - Data Poisoning Attack Aiming the Vulnerability of Continual Learning [25.480762565632332]
本稿では,新しいタスクの学習プロセスで使用できる,単純なタスク固有のデータ中毒攻撃について述べる。
2つの代表的な正規化に基づく連続学習手法に対する攻撃実験を行った。
論文 参考訳(メタデータ) (2022-11-29T02:28:05Z) - Unveiling the Tapestry: the Interplay of Generalization and Forgetting in Continual Learning [18.61040106667249]
AIでは、一般化とは、与えられたタスクに関連するアウト・オブ・ディストリビューション・データに対して、トレーニングされたデータ以外にうまく機能するモデルの能力を指す。
継続的な学習方法は、しばしば破滅的な忘れを軽減し、以前のタスクからの知識を確実に保持するメカニズムを含んでいる。
本稿では, 形状テクスチュア整合性規則化(STCR)と呼ばれる, 連続的な学習を支援する簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T04:36:24Z) - Continual Learning for Pose-Agnostic Object Recognition in 3D Point
Clouds [5.521693536291449]
この研究は、オブジェクトのポーズが動的かつ予測不能に変化する、ポーズに依存しない連続的な学習タスクに焦点を当てる。
本稿では,従来のタスクの幾何等値情報を効果的に蒸留する連続学習モデルを提案する。
実験により,本手法はいくつかの主流クラウドデータセットにおいて,ポーズに依存しないシナリオの課題を克服することを示した。
論文 参考訳(メタデータ) (2022-09-11T11:31:39Z) - Continual Object Detection: A review of definitions, strategies, and
challenges [0.0]
連続学習の分野は、以前に学習したタスクのパフォーマンスを損なうことなく連続的なタスクを学習する能力を調べる。
我々は、ロボット工学や自動運転車における幅広い応用のために、連続物体検出の研究がさらに注目に値すると考えている。
論文 参考訳(メタデータ) (2022-05-30T21:57:48Z) - L2Explorer: A Lifelong Reinforcement Learning Assessment Environment [49.40779372040652]
強化学習ソリューションは、トレーニングされたデータ配布以外の新しいタスクに晒されると、あまり一般化しない傾向があります。
生涯学習エクスプローラー(L2Explorer)を用いた継続的強化学習開発と評価のための枠組みを導入する。
L2Explorerは新しいUnityベースのファーストパーソンな3D探索環境で、複雑な評価カリキュラムに構造化されたタスクやタスクのバリエーションを生成するために継続的に再構成することができる。
論文 参考訳(メタデータ) (2022-03-14T19:20:26Z) - Rehearsal revealed: The limits and merits of revisiting samples in
continual learning [43.40531878205344]
我々は,継続学習における最も確立された手法の一つであるリハーサルの限界とメリットについて考察する。
リハーサルで順次訓練されたモデルは、タスクが完了した後も同じ低損失領域にとどまりがちであるが、サンプルメモリに過剰適合する危険性がある。
論文 参考訳(メタデータ) (2021-04-15T13:28:14Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。