論文の概要: Adversarial Attacks in a Multi-view Setting: An Empirical Study of the
Adversarial Patches Inter-view Transferability
- arxiv url: http://arxiv.org/abs/2110.04887v1
- Date: Sun, 10 Oct 2021 19:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:36:52.929759
- Title: Adversarial Attacks in a Multi-view Setting: An Empirical Study of the
Adversarial Patches Inter-view Transferability
- Title(参考訳): マルチビュー設定における対人攻撃--対人パッチの相互移動性に関する実証的研究
- Authors: Bilel Tarchoun, Ihsen Alouani, Anouar Ben Khalifa, Mohamed Ali Mahjoub
- Abstract要約: 敵攻撃は、検知器を騙す可能性のある入力への加算ノイズからなる。
最近の実世界の印刷可能な敵パッチは、最先端のニューラルネットワークに対して効果的であることが証明された。
視角が対向パッチの有効性に及ぼす影響について検討した。
- 参考スコア(独自算出の注目度): 3.1542695050861544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning applications are getting mainstream owing to a
demonstrated efficiency in solving complex problems, they suffer from inherent
vulnerability to adversarial attacks. Adversarial attacks consist of additive
noise to an input which can fool a detector. Recently, successful real-world
printable adversarial patches were proven efficient against state-of-the-art
neural networks. In the transition from digital noise based attacks to
real-world physical attacks, the myriad of factors affecting object detection
will also affect adversarial patches. Among these factors, view angle is one of
the most influential, yet under-explored. In this paper, we study the effect of
view angle on the effectiveness of an adversarial patch. To this aim, we
propose the first approach that considers a multi-view context by combining
existing adversarial patches with a perspective geometric transformation in
order to simulate the effect of view angle changes. Our approach has been
evaluated on two datasets: the first dataset which contains most real world
constraints of a multi-view context, and the second dataset which empirically
isolates the effect of view angle. The experiments show that view angle
significantly affects the performance of adversarial patches, where in some
cases the patch loses most of its effectiveness. We believe that these results
motivate taking into account the effect of view angles in future adversarial
attacks, and open up new opportunities for adversarial defenses.
- Abstract(参考訳): 機械学習アプリケーションは、複雑な問題の解決における効率性の実証によって主流になっているが、敵の攻撃に固有の脆弱性に悩まされている。
敵攻撃は、検知器を騙す可能性のある入力への加算ノイズからなる。
近年、最先端のニューラルネットワークに対して、実世界の印刷可能な逆境パッチが効果的であることが証明された。
デジタルノイズベースの攻撃から現実世界の物理的攻撃への移行では、物体検出に影響する無数の要因が敵のパッチに影響を及ぼす。
これらの要因の中で、視角は最も影響力があるが、未調査である。
本稿では,対向パッチの有効性に対する視野角の影響について検討する。
そこで本研究では,既存の対向パッチと視点幾何変換を組み合わせることで,視点角の変化の影響をシミュレートし,多視点コンテキストを考える最初の手法を提案する。
提案手法は,マルチビューコンテキストの現実的制約を多く含む第1データセットと,ビューアングルの効果を実証的に分離する第2データセットの2つのデータセットで評価されている。
実験の結果、視野角は逆境パッチの性能に大きく影響し、ある場合にはその効果のほとんどを失うことがわかった。
これらの結果は、将来の敵攻撃における視角の影響を考慮に入れ、敵防衛のための新たな機会を開くことを動機としている。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Breaking the Illusion: Real-world Challenges for Adversarial Patches in Object Detection [3.4233698915405544]
敵対的攻撃は、機械学習システムの堅牢性と信頼性に重大な脅威をもたらす。
本研究では,物理世界におけるYOLOオブジェクト検出ネットワークにおける逆パッチの性能について検討した。
論文 参考訳(メタデータ) (2024-10-23T11:16:11Z) - DePatch: Towards Robust Adversarial Patch for Evading Person Detectors in the Real World [13.030804897732185]
本稿では,デカップリング逆パッチ(Decoupled adversarial Patch, DePatch)攻撃を導入し,逆パッチの自己結合問題に対処する。
具体的には、逆パッチをブロックワイドセグメントに分割し、これらのセグメント間の依存性を低減する。
さらに,攻撃能力を向上させるために,境界シフト操作とプログレッシブデカップリング戦略を導入する。
論文 参考訳(メタデータ) (2024-08-13T04:25:13Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Fool the Hydra: Adversarial Attacks against Multi-view Object Detection
Systems [3.4673556247932225]
Adrial patchは、現実のシナリオにおける機械学習(ML)モデルに対する敵対的な攻撃によって引き起こされる脅威の、明白な顕在化を実証するものだ。
マルチビューオブジェクトシステムは、複数のビューからのデータを組み合わせて、困難な環境でも信頼性の高い検出結果を得ることができる。
現実の視覚アプリケーションにおいて重要であるにもかかわらず、マルチビューシステムの敵パッチに対する脆弱性は十分に調査されていない。
論文 参考訳(メタデータ) (2023-11-30T20:11:44Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。