論文の概要: Adversarial Attacks for Multi-view Deep Models
- arxiv url: http://arxiv.org/abs/2006.11004v1
- Date: Fri, 19 Jun 2020 08:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 03:47:04.333610
- Title: Adversarial Attacks for Multi-view Deep Models
- Title(参考訳): 多視点深部モデルに対する逆襲攻撃
- Authors: Xuli Sun, Shiliang Sun
- Abstract要約: 本稿では,2段階攻撃(TSA)とエンドツーエンド攻撃(ETEA)の2つの多視点攻撃戦略を提案する。
TSAの主な考え方は、関連する単一ビューモデルに対する攻撃によって生成された逆例で、マルチビューモデルを攻撃することである。
ETEAは、ターゲットのマルチビューモデルに対するダイレクトアタックを達成するために適用される。
- 参考スコア(独自算出の注目度): 39.07356013772198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has highlighted the vulnerability of many deep machine learning
models to adversarial examples. It attracts increasing attention to adversarial
attacks, which can be used to evaluate the security and robustness of models
before they are deployed. However, to our best knowledge, there is no specific
research on the adversarial attacks for multi-view deep models. This paper
proposes two multi-view attack strategies, two-stage attack (TSA) and
end-to-end attack (ETEA). With the mild assumption that the single-view model
on which the target multi-view model is based is known, we first propose the
TSA strategy. The main idea of TSA is to attack the multi-view model with
adversarial examples generated by attacking the associated single-view model,
by which state-of-the-art single-view attack methods are directly extended to
the multi-view scenario. Then we further propose the ETEA strategy when the
multi-view model is provided publicly. The ETEA is applied to accomplish direct
attacks on the target multi-view model, where we develop three effective
multi-view attack methods. Finally, based on the fact that adversarial examples
generalize well among different models, this paper takes the adversarial attack
on the multi-view convolutional neural network as an example to validate that
the effectiveness of the proposed multi-view attacks. Extensive experimental
results demonstrate that our multi-view attack strategies are capable of
attacking the multi-view deep models, and we additionally find that multi-view
models are more robust than single-view models.
- Abstract(参考訳): 最近の研究は、多くのディープラーニングモデルの脆弱性を敵の例に強調している。
敵攻撃に対する関心が高まり、展開前にモデルのセキュリティと堅牢性を評価するために使用できる。
しかしながら、我々の知る限り、マルチビュー深層モデルに対する敵意攻撃に関する具体的な研究はない。
本稿では,2段階攻撃(TSA)とエンドツーエンド攻撃(ETEA)の2つの多視点攻撃戦略を提案する。
対象とするマルチビューモデルに基づく単一視点モデルが知られているという軽度な仮定から,まずtsa戦略を提案する。
TSAの主な考え方は、関連する単一ビューモデルに対する攻撃によって生じる敵の例でマルチビューモデルを攻撃することであり、これにより、最先端の単一ビューアタックメソッドがマルチビューシナリオに直接拡張される。
次に,マルチビューモデルが公開されている場合のETEA戦略を提案する。
ETEAはターゲットのマルチビューモデルへのダイレクトアタックに応用され、3つの効果的なマルチビューアタック手法を開発する。
最後に、異なるモデル間で敵の例がよく一般化されていることを踏まえ、本論文では、マルチビュー畳み込みニューラルネットワークに対する敵の攻撃を例として、提案したマルチビュー攻撃の有効性を検証する。
大規模な実験結果から,我々の多視点攻撃戦略が多視点深層モデルに攻撃できることを示すとともに,多視点モデルの方がシングルビューモデルよりも堅牢であることを示す。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - PINCH: An Adversarial Extraction Attack Framework for Deep Learning
Models [3.884583419548512]
ディープラーニング(DL)モデルは、アプリケーションの多様化にますます力を入れています。
本稿では、多種多様なハードウェアプラットフォーム上で複数のDLモデルおよび攻撃をデプロイし評価できる効率的かつ自動化された抽出攻撃フレームワークであるPINCHを提案する。
論文 参考訳(メタデータ) (2022-09-13T21:08:13Z) - Towards Adversarial Attack on Vision-Language Pre-training Models [15.882687207499373]
本稿では,V+LモデルとV+Lタスクに対する敵対的攻撃について検討した。
異なる対象や攻撃対象の影響を調べた結果,強力なマルチモーダル攻撃を設計するための指針として,いくつかの重要な観測結果が得られた。
論文 参考訳(メタデータ) (2022-06-19T12:55:45Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。