論文の概要: Robust Active Learning (RoAL): Countering Dynamic Adversaries in Active Learning with Elastic Weight Consolidation
- arxiv url: http://arxiv.org/abs/2408.07364v1
- Date: Wed, 14 Aug 2024 08:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 14:04:00.432794
- Title: Robust Active Learning (RoAL): Countering Dynamic Adversaries in Active Learning with Elastic Weight Consolidation
- Title(参考訳): ロバストアクティブラーニング(RoAL) - 弾性重み強化によるアクティブラーニングにおける動的アドバーナの対応
- Authors: Ricky Maulana Fajri, Yulong Pei, Lu Yin, Mykola Pechenizkiy,
- Abstract要約: 本稿ではロバスト・アクティブ・ラーニング(RoAL)を紹介する。ロバスト・アクティブ・ラーニング(RoAL)は,ロバストなアクティブ・ラーニング・フレームワークを開発する上での課題に対処するための新しいアプローチである。
本稿では,アクティブな学習フレームワークに重大な脅威をもたらす動的敵攻撃を提案する。
次に、EWCとアクティブラーニングを組み合わせることで、動的逆境攻撃による破滅的な忘れを軽減できる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 16.85038790429607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant advancements in active learning and adversarial attacks, the intersection of these two fields remains underexplored, particularly in developing robust active learning frameworks against dynamic adversarial threats. The challenge of developing robust active learning frameworks under dynamic adversarial attacks is critical, as these attacks can lead to catastrophic forgetting within the active learning cycle. This paper introduces Robust Active Learning (RoAL), a novel approach designed to address this issue by integrating Elastic Weight Consolidation (EWC) into the active learning process. Our contributions are threefold: First, we propose a new dynamic adversarial attack that poses significant threats to active learning frameworks. Second, we introduce a novel method that combines EWC with active learning to mitigate catastrophic forgetting caused by dynamic adversarial attacks. Finally, we conduct extensive experimental evaluations to demonstrate the efficacy of our approach. The results show that RoAL not only effectively counters dynamic adversarial threats but also significantly reduces the impact of catastrophic forgetting, thereby enhancing the robustness and performance of active learning systems in adversarial environments.
- Abstract(参考訳): 活発な学習と敵対的攻撃の著しい進歩にもかかわらず、これらの2つの分野の交わりは未解明のままであり、特に動的敵対的脅威に対する堅牢な学習フレームワークの開発において重要である。
動的敵攻撃の下で堅牢なアクティブラーニングフレームワークを開発することの課題は、これらの攻撃がアクティブラーニングサイクル内で破滅的な忘れを招きかねないため、非常に重要である。
本稿では,ロバスト・アクティブ・ラーニング(RoAL)について紹介する。これは,弾性ウェイト・コンソリデーション(EWC)をアクティブ・ラーニング・プロセスに統合することにより,この問題に対処するための新しいアプローチである。
まず、アクティブな学習フレームワークに重大な脅威をもたらす新しい動的敵攻撃を提案する。
次に、EWCとアクティブラーニングを組み合わせることで、動的逆境攻撃による破滅的な忘れを軽減できる新しい手法を提案する。
最後に,本手法の有効性を実証するため,広範囲な実験的評価を行った。
その結果,RoALは動的敵対的脅威に対して効果的に対処するだけでなく,破滅的忘れ込みの影響を著しく低減し,敵的環境における能動的学習システムの堅牢性と性能を向上させることが示唆された。
関連論文リスト
- ExAL: An Exploration Enhanced Adversarial Learning Algorithm [0.0]
探索強化適応学習アルゴリズム(ExAL)を提案する。
ExALは探索駆動機構を統合し、モデル決定境界への影響を最大化する摂動を発見する。
MNISTの手書きディジットとBlended Malwareデータセット上でのExALの性能を評価する。
論文 参考訳(メタデータ) (2024-11-24T15:37:29Z) - Reinforcement Learning under Latent Dynamics: Toward Statistical and Algorithmic Modularity [51.40558987254471]
強化学習の現実的な応用は、エージェントが複雑な高次元の観察を行う環境を含むことが多い。
本稿では,統計的・アルゴリズム的な観点から,textit General$ latent dynamicsの下での強化学習の課題に対処する。
論文 参考訳(メタデータ) (2024-10-23T14:22:49Z) - Optimizing Cyber Defense in Dynamic Active Directories through Reinforcement Learning [10.601458163651582]
本稿では,動的実世界のネットワークにおけるエッジブロッキングACO戦略の欠如に対処する。
具体的には、組織的Active Directory(AD)システムのサイバーセキュリティ脆弱性を対象とする。
ADシステムを静的エンティティとみなす、エッジブロッキング防衛に関する既存の文献とは異なり、本研究では、それらの動的性質を認識してこれに対応する。
論文 参考訳(メタデータ) (2024-06-28T01:37:46Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Embodied Active Defense: Leveraging Recurrent Feedback to Counter Adversarial Patches [37.317604316147985]
敵のパッチに対するディープニューラルネットワークの脆弱性は、モデルロバスト性を高めるための多くの防衛戦略を動機付けている。
本研究では,環境情報を積極的に文脈化して,現実の3次元環境における不整合に対処するEmbodied Active Defense (EAD) を開発した。
論文 参考訳(メタデータ) (2024-03-31T03:02:35Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Improving Adversarial Robustness via Channel-wise Activation Suppressing [65.72430571867149]
深層ニューラルネットワーク(DNN)を用いたセキュアで堅牢な学習において,その逆例とその活性化に関する研究が注目されている。
本稿では,チャネルワイドアクティベーションの観点から,敵対的事例の新たな特徴を2つ挙げる。
我々は,CASが本質的に敵の活性化を抑制するモデルを訓練でき,既存の防御手法にも容易に適用でき,より堅牢性を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-11T03:44:16Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。