論文の概要: Stealthy Multi-Task Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2411.17936v1
- Date: Tue, 26 Nov 2024 23:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:27:24.724259
- Title: Stealthy Multi-Task Adversarial Attacks
- Title(参考訳): ステルスなマルチタスク・アタック
- Authors: Jiacheng Guo, Tianyun Zhang, Lei Li, Haochen Yang, Hongkai Yu, Minghai Qin,
- Abstract要約: マルチタスクフレームワーク内の他のタスクのパフォーマンスを保ちながら、タスクを選択的にターゲティングする。
このアプローチの動機は、自律運転のような現実世界のアプリケーションにおけるタスク間でのセキュリティの優先順位の変化にある。
本稿では,複数のアルゴリズムを用いて入力に知覚不可能なノイズを注入するステルスマルチタスク攻撃フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.24457318044218
- License:
- Abstract: Deep Neural Networks exhibit inherent vulnerabilities to adversarial attacks, which can significantly compromise their outputs and reliability. While existing research primarily focuses on attacking single-task scenarios or indiscriminately targeting all tasks in multi-task environments, we investigate selectively targeting one task while preserving performance in others within a multi-task framework. This approach is motivated by varying security priorities among tasks in real-world applications, such as autonomous driving, where misinterpreting critical objects (e.g., signs, traffic lights) poses a greater security risk than minor depth miscalculations. Consequently, attackers may hope to target security-sensitive tasks while avoiding non-critical tasks from being compromised, thus evading being detected before compromising crucial functions. In this paper, we propose a method for the stealthy multi-task attack framework that utilizes multiple algorithms to inject imperceptible noise into the input. This novel method demonstrates remarkable efficacy in compromising the target task while simultaneously maintaining or even enhancing performance across non-targeted tasks - a criterion hitherto unexplored in the field. Additionally, we introduce an automated approach for searching the weighting factors in the loss function, further enhancing attack efficiency. Experimental results validate our framework's ability to successfully attack the target task while preserving the performance of non-targeted tasks. The automated loss function weight searching method demonstrates comparable efficacy to manual tuning, establishing a state-of-the-art multi-task attack framework.
- Abstract(参考訳): Deep Neural Networksは、敵攻撃に固有の脆弱性を示し、そのアウトプットと信頼性を著しく損なう可能性がある。
既存の研究は、主にマルチタスク環境における単一タスクシナリオの攻撃や、すべてのタスクを無差別にターゲットすることに焦点を当てているが、マルチタスクフレームワーク内の他のタスクのパフォーマンスを保ちながら、ひとつのタスクを選択的にターゲットすることを検討する。
このアプローチは、例えば、重要なオブジェクト(例えば、標識、信号)の誤解釈が、小さな深さの誤計算よりも大きなセキュリティリスクをもたらすような、現実のアプリケーションにおけるタスク間でのセキュリティ上の優先順位の変化によって動機付けられている。
その結果、攻撃者は非クリティカルなタスクが損なわれないようにしながら、セキュリティに敏感なタスクを標的にすることを希望するかもしれない。
本論文では,複数のアルゴリズムを用いて入力に知覚不可能なノイズを注入するステルスマルチタスク攻撃フレームワークを提案する。
本手法は,未探索の基準である非目標タスク間の性能を同時に維持あるいは向上しつつ,目標タスクの妥協に顕著な有効性を示すものである。
さらに,損失関数の重み付け因子を探索する自動手法を導入し,攻撃効率をさらに向上する。
実験結果から,非目標タスクの性能を保ちながら,目標タスクを効果的に攻撃できるフレームワークの有効性が検証された。
自動損失関数重み探索法は手動チューニングに匹敵する性能を示し、最先端のマルチタスク攻撃フレームワークを確立する。
関連論文リスト
- Cross-Task Attack: A Self-Supervision Generative Framework Based on Attention Shift [3.6015992701968793]
自己教師型クロスタスクアタックフレームワーク(CTA)を提案する。
CTAは、サンプルの注意領域をコアテンションマップから、アンチアテンションマップに近づけることで、クロスタスク摂動を生成する。
本研究では,複数の視覚課題に対する広範囲な実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-07-18T17:01:10Z) - Adversarial Attacks on Hidden Tasks in Multi-Task Learning [8.88375168590583]
マルチタスクモデルの非ターゲットタスクと共有バックボーンネットワークからの知識を活用する新しい逆攻撃手法を提案する。
CelebAとDeepFashionデータセットの実験結果から,隠れタスクの精度を劣化させる手法の有効性が示された。
論文 参考訳(メタデータ) (2024-05-24T06:11:30Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Task-Agnostic Detector for Insertion-Based Backdoor Attacks [53.77294614671166]
本稿では,バックドア検出の先駆的手法であるTABDet(Task-Agnostic Backdoor Detector)を紹介する。
TABDetは、最終層ロジットと効率的なプーリング技術を組み合わせて、3つの著名なNLPタスクをまたいだ統一ロジット表現を可能にする。
TABDetは多様なタスク特化モデルから共同で学習し、従来のタスク特化手法よりも優れた検出効率を示す。
論文 参考訳(メタデータ) (2024-03-25T20:12:02Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Behaviour-Diverse Automatic Penetration Testing: A Curiosity-Driven
Multi-Objective Deep Reinforcement Learning Approach [3.5071575478443435]
侵入テストは、実際のアクティブな敵をエミュレートすることで、ターゲットネットワークのセキュリティを評価する上で重要な役割を果たす。
深層強化学習(Deep Reinforcement Learning)は,浸透テストのプロセスを自動化するための,有望なソリューションだと考えられている。
我々は,チェビシェフ分解批判者に対して,侵入試験における異なる目的のバランスをとる多様な敵戦略を見出すことを提案する。
論文 参考訳(メタデータ) (2022-02-22T02:34:16Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Automatic Curriculum Learning through Value Disagreement [95.19299356298876]
新しい未解決タスクを継続的に解決することが、多様な行動を学ぶための鍵です。
エージェントが複数の目標を達成する必要があるマルチタスク領域では、トレーニング目標の選択はサンプル効率に大きな影響を与える可能性がある。
そこで我々は,エージェントが解決すべき目標のための自動カリキュラムを作成することを提案する。
提案手法は,13のマルチゴールロボットタスクと5つのナビゲーションタスクにまたがって評価し,現在の最先端手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2020-06-17T03:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。