論文の概要: Bio-Inspired Adversarial Attack Against Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2107.02895v1
- Date: Wed, 30 Jun 2021 03:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:35:54.326737
- Title: Bio-Inspired Adversarial Attack Against Deep Neural Networks
- Title(参考訳): バイオインスパイアされたディープニューラルネットワーク攻撃
- Authors: Bowei Xi and Yujie Chen and Fan Fei and Zhan Tu and Xinyan Deng
- Abstract要約: 本論文は,生体にインスパイアされた設計を応用した,ディープニューラルネットワーク(DNN)に対する新たな敵攻撃を開発する。
我々の知る限りでは、これは動く物体で物理的な攻撃を導入する最初の試みである。
- 参考スコア(独自算出の注目度): 28.16483200512112
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The paper develops a new adversarial attack against deep neural networks
(DNN), based on applying bio-inspired design to moving physical objects. To the
best of our knowledge, this is the first work to introduce physical attacks
with a moving object. Instead of following the dominating attack strategy in
the existing literature, i.e., to introduce minor perturbations to a digital
input or a stationary physical object, we show two new successful attack
strategies in this paper. We show by superimposing several patterns onto one
physical object, a DNN becomes confused and picks one of the patterns to assign
a class label. Our experiment with three flapping wing robots demonstrates the
possibility of developing an adversarial camouflage to cause a targeted mistake
by DNN. We also show certain motion can reduce the dependency among consecutive
frames in a video and make an object detector "blind", i.e., not able to detect
an object exists in the video. Hence in a successful physical attack against
DNN, targeted motion against the system should also be considered.
- Abstract(参考訳): そこで本研究では,生体にインスパイアされた設計を応用した,深層ニューラルネットワーク(DNN)に対する新たな敵攻撃法を提案する。
我々の知る限りでは、これは動く物体で物理的な攻撃を導入する最初の試みである。
本稿では,デジタル入力や静止物体に小さな摂動を導入するために,既存の文献で支配的な攻撃戦略に従う代わりに,新たな攻撃戦略を2つ紹介する。
1つの物理オブジェクトに複数のパターンを重ね合わせることで、DNNは混乱し、クラスラベルを割り当てるためにパターンの1つを選択する。
3羽の羽ばたきロボットによる実験は、DNNによる標的ミスの原因となる敵のカモフラージュの開発の可能性を示している。
また、動画中の連続するフレーム間の依存を減少させ、物体検出装置を「盲点」、すなわち、映像に存在する物体を検出できないようにする。
したがって、DNNに対する物理的攻撃が成功すれば、システムに対する標的運動も考慮すべきである。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Visually Adversarial Attacks and Defenses in the Physical World: A
Survey [27.40548512511512]
コンピュータビジョンにおける現在の敵攻撃は、それぞれの攻撃形態に応じてデジタル攻撃と物理的攻撃に分けられる。
本稿では,コンピュータビジョンにおける現在の身体的敵意攻撃と身体的敵意防御に対する調査を要約する。
論文 参考訳(メタデータ) (2022-11-03T09:28:45Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Adversarial Detection: Attacking Object Detection in Real Time [10.547024752811437]
本稿では,オブジェクト検出モデルに対する最初のリアルタイムオンライン攻撃を提案する。
所望の場所で非存在オブジェクトのバウンディングボックスを構成する3つの攻撃を考案する。
この攻撃は、約20回のイテレーションで約90%の成功率を達成する。
論文 参考訳(メタデータ) (2022-09-05T13:32:41Z) - Adversarial Zoom Lens: A Novel Physical-World Attack to DNNs [0.0]
本稿では,Adrial Zoom Lens (AdvZL) と呼ばれる新しい物理対向攻撃手法を実演する。
AdvZLはズームレンズを使って物理世界の画像をズームイン/アウトし、ターゲットの物体の特性を変えることなくDNNを騙す。
デジタル環境では,AdvZLに基づくデータセットを構築し,DNNに対する等スケール拡大画像の対角性を検証する。
物理環境では、ズームレンズを操作して対象物体の内外をズームインし、対向サンプルを生成する。
論文 参考訳(メタデータ) (2022-06-23T13:03:08Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。