論文の概要: Detection Defenses: An Empty Promise against Adversarial Patch Attacks
on Optical Flow
- arxiv url: http://arxiv.org/abs/2310.17403v1
- Date: Thu, 26 Oct 2023 13:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 20:09:13.929701
- Title: Detection Defenses: An Empty Promise against Adversarial Patch Attacks
on Optical Flow
- Title(参考訳): detection defenses: 光学的流れに対する敵対的パッチ攻撃に対する空の約束
- Authors: Erik Scheurer, Jenny Schmalfuss, Alexander Lis and Andr\'es Bruhn
- Abstract要約: アドリアパッチは、任意のシーンに配置する際の光流予測の信頼性を損なう。
潜在的な治療は、敵のパッチを検出して除去する防衛戦略であるが、その基盤となる動作予測への影響は研究されていない。
防衛機構を考慮に入れた攻撃に、現在の防衛が耐えられるかどうかを調べるために、防衛対応攻撃を実施している。
- 参考スコア(独自算出の注目度): 46.2482873419289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patches undermine the reliability of optical flow predictions
when placed in arbitrary scene locations. Therefore, they pose a realistic
threat to real-world motion detection and its downstream applications.
Potential remedies are defense strategies that detect and remove adversarial
patches, but their influence on the underlying motion prediction has not been
investigated. In this paper, we thoroughly examine the currently available
detect-and-remove defenses ILP and LGS for a wide selection of state-of-the-art
optical flow methods, and illuminate their side effects on the quality and
robustness of the final flow predictions. In particular, we implement
defense-aware attacks to investigate whether current defenses are able to
withstand attacks that take the defense mechanism into account. Our experiments
yield two surprising results: Detect-and-remove defenses do not only lower the
optical flow quality on benign scenes, in doing so, they also harm the
robustness under patch attacks for all tested optical flow methods except
FlowNetC. As currently employed detect-and-remove defenses fail to deliver the
promised adversarial robustness for optical flow, they evoke a false sense of
security. The code is available at
https://github.com/cv-stuttgart/DetectionDefenses.
- Abstract(参考訳): 逆パッチは、任意のシーンに配置する際の光流予測の信頼性を損なう。
そのため、現実のモーション検出とその下流応用に現実的な脅威をもたらす。
潜在的な治療は、敵のパッチを検出して除去する防衛戦略であるが、その基盤となる動作予測への影響は研究されていない。
本稿では,現状の光学フロー法を幅広く選択するために,現在利用可能なippとlgsを徹底的に検討し,最終フロー予測の品質とロバスト性に対する副作用を照らし出す。
特に,現在の防衛が防衛機構を考慮した攻撃に耐えられるかどうかを調べるために,防衛対応攻撃を実施している。
検出と除去の防御は、良質なシーンにおける光学的フロー品質を低下させるだけでなく、FlowNetCを除く全てのテストされた光学的フロー手法に対するパッチアタックによる堅牢性も損なう。
現在採用されている検出・削除防御は、光学フローに対する敵意の強固さをもたらすことができないため、誤ったセキュリティ感覚を誘発する。
コードはhttps://github.com/cv-stuttgart/detectionprotectsで入手できる。
関連論文リスト
- Model Agnostic Defense against Adversarial Patch Attacks on Object Detection in Unmanned Aerial Vehicles [0.27309692684728615]
無人航空機(UAV)のキーコンポーネントとなる物体検出
物体探知機に対する 敵のパッチ攻撃は 上流のタスクのパフォーマンスを 著しく損なう可能性がある
本稿では,敵パッチ攻撃の脅威に対するモデル非依存防衛機構を提案する。
論文 参考訳(メタデータ) (2024-05-29T15:19:07Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [22.078088272837068]
フェデレーテッド・ラーニング(FL)システムは敵の攻撃を受けやすい。
現在の防衛方式は現実世界のFLシステムでは実用的ではないことが多い。
本稿では,現実のFLシステムを対象とした新しい異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Defending Against Person Hiding Adversarial Patch Attack with a
Universal White Frame [28.128458352103543]
高性能物体検出ネットワークは、敵のパッチ攻撃に対して脆弱である。
人身攻撃は、多くの安全クリティカルなアプリケーションにおいて深刻な問題として浮上している。
防御パターンを最適化することで人身攻撃を緩和する新しい防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-04-27T15:18:08Z) - Consistent Semantic Attacks on Optical Flow [3.058685580689605]
我々は,光フローに対するセマンティックな敵攻撃に対する新しいアプローチを提案する。
私たちの方法は、アウトプットにおける攻撃者の意図を隠すのにも役立ちます。
我々は、光の流れに依存するタスクに対する攻撃の有効性を実証する。
論文 参考訳(メタデータ) (2021-11-16T14:05:07Z) - We Can Always Catch You: Detecting Adversarial Patched Objects WITH or
WITHOUT Signature [3.5272597442284104]
本稿では,オブジェクト検出に対する逆パッチ攻撃の検知問題について検討する。
高速シグネチャベース防御法を提案し,有効であることが実証された。
新たに生成された敵パッチは、提案されたシグネチャベースの防御を回避できる。
本稿では,内部コンテンツセマンティクスの整合性に基づく署名に依存しない新しい検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-09T17:58:08Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。