論文の概要: Cross-Task Attack: A Self-Supervision Generative Framework Based on Attention Shift
- arxiv url: http://arxiv.org/abs/2407.13700v1
- Date: Thu, 18 Jul 2024 17:01:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 14:31:41.187717
- Title: Cross-Task Attack: A Self-Supervision Generative Framework Based on Attention Shift
- Title(参考訳): クロスタスクアタック:アテンションシフトに基づくセルフスーパービジョン生成フレームワーク
- Authors: Qingyuan Zeng, Yunpeng Gong, Min Jiang,
- Abstract要約: 自己教師型クロスタスクアタックフレームワーク(CTA)を提案する。
CTAは、サンプルの注意領域をコアテンションマップから、アンチアテンションマップに近づけることで、クロスタスク摂動を生成する。
本研究では,複数の視覚課題に対する広範囲な実験を行い,提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 3.6015992701968793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Studying adversarial attacks on artificial intelligence (AI) systems helps discover model shortcomings, enabling the construction of a more robust system. Most existing adversarial attack methods only concentrate on single-task single-model or single-task cross-model scenarios, overlooking the multi-task characteristic of artificial intelligence systems. As a result, most of the existing attacks do not pose a practical threat to a comprehensive and collaborative AI system. However, implementing cross-task attacks is highly demanding and challenging due to the difficulty in obtaining the real labels of different tasks for the same picture and harmonizing the loss functions across different tasks. To address this issue, we propose a self-supervised Cross-Task Attack framework (CTA), which utilizes co-attention and anti-attention maps to generate cross-task adversarial perturbation. Specifically, the co-attention map reflects the area to which different visual task models pay attention, while the anti-attention map reflects the area that different visual task models neglect. CTA generates cross-task perturbations by shifting the attention area of samples away from the co-attention map and closer to the anti-attention map. We conduct extensive experiments on multiple vision tasks and the experimental results confirm the effectiveness of the proposed design for adversarial attacks.
- Abstract(参考訳): 人工知能(AI)システムに対する敵攻撃の研究は、モデルの欠点を発見するのに役立ち、より堅牢なシステムの構築を可能にする。
既存の攻撃手法の多くは、人工知能システムのマルチタスク特性を見越して、シングルタスク・シングルモデルまたはシングルタスク・クロスモデルシナリオのみに焦点を当てている。
その結果、既存の攻撃のほとんどは、包括的で協調的なAIシステムに現実的な脅威を与えない。
しかし、異なるタスクの実際のラベルの取得が困難であり、異なるタスク間での損失関数の調和が難しいため、クロスタスク攻撃の実装は非常に要求され、困難である。
この問題に対処するために,コアテンションマップとアンチアテンションマップを用いた自己教師型クロスタスクアタックフレームワーク(CTA)を提案する。
特に、コアテンションマップは異なる視覚的タスクモデルが注目する領域を反映し、反アテンションマップは異なる視覚的タスクモデルが無視する領域を反映している。
CTAは、サンプルの注意領域をコアテンションマップから、アンチアテンションマップに近づけることで、クロスタスク摂動を生成する。
本研究では,複数の視覚課題に対する広範囲な実験を行い,提案手法の有効性を検証した。
関連論文リスト
- Adversarial Attacks on Hidden Tasks in Multi-Task Learning [8.88375168590583]
マルチタスクモデルの非ターゲットタスクと共有バックボーンネットワークからの知識を活用する新しい逆攻撃手法を提案する。
CelebAとDeepFashionデータセットの実験結果から,隠れタスクの精度を劣化させる手法の有効性が示された。
論文 参考訳(メタデータ) (2024-05-24T06:11:30Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Pre-trained Trojan Attacks for Visual Recognition [106.13792185398863]
PVM(Pre-trained Vision Model)は、下流タスクを微調整する際、例外的なパフォーマンスのため、主要なコンポーネントとなっている。
本稿では,PVMにバックドアを埋め込んだトロイの木馬攻撃を提案する。
バックドア攻撃の成功において、クロスタスクアクティベーションとショートカット接続がもたらす課題を強調します。
論文 参考訳(メタデータ) (2023-12-23T05:51:40Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Multi-Task Models Adversarial Attacks [25.834775498006657]
マルチタスク学習はマルチタスクモデルとして知られる特異モデルを開発し、複数のタスクを同時に実行する。
シングルタスクモデルのセキュリティは徹底的に研究されているが、マルチタスクモデルはいくつかの重要なセキュリティ問題を引き起こす。
本稿では,これらの質問に対して,詳細な分析と厳密な実験を通じて対処する。
論文 参考訳(メタデータ) (2023-05-20T03:07:43Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - Boosting Cross-task Transferability of Adversarial Patches with Visual
Relations [4.694536172504848]
本稿では,VRAPと呼ばれる,視覚関係に基づくクロスタスク・アダクティブ・パッチ生成手法を提案する。
VRAPはシーングラフを使用して、オブジェクト認識に基づく偽装と述語に基づく関係の排除を組み合わせている。
実験の結果,VRAPは多様な視覚的推論タスクにおけるブラックボックス転送可能性において,従来の手法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-11T11:43:57Z) - Hear No Evil: Towards Adversarial Robustness of Automatic Speech
Recognition via Multi-Task Learning [13.735883484044166]
本研究では,マルチタスク学習が音声領域におけるASRモデルの対角的ロバスト性に及ぼす影響について検討する。
提案手法は,17.25から59.90までの敵目標WERにおいて,絶対的な改善が見られた。
我々の研究は、ASRのマルチタスク学習による敵の堅牢性向上を明らかにする最初の詳細な研究である。
論文 参考訳(メタデータ) (2022-04-05T17:40:19Z) - Multi-Task Adversarial Attack [3.412750324146571]
MTA(Multi-Task adversarial Attack)は、複数のタスクの敵例を効率的に作成できる統合されたフレームワークである。
MTAは、全てのタスクのための共有エンコーダと複数のタスク固有のデコーダからなる逆転摂動のジェネレータを使用する。
共有エンコーダのおかげで、MTAはストレージコストを削減し、複数のタスクを同時に攻撃する際の推論を高速化する。
論文 参考訳(メタデータ) (2020-11-19T13:56:58Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。