論文の概要: What Causes Optical Flow Networks to be Vulnerable to Physical
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2103.16255v1
- Date: Tue, 30 Mar 2021 11:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:54:51.979363
- Title: What Causes Optical Flow Networks to be Vulnerable to Physical
Adversarial Attacks
- Title(参考訳): 物理対向攻撃による光フローネットワークの脆弱性
- Authors: Simon Schrodi, Tonmoy Saikia, Thomas Brox
- Abstract要約: 最近の研究は、物理的、パッチベースの敵攻撃に対する光学フローネットワークの堅牢性の欠如を実証した。
我々は,光学的流れ推定の古典的開口問題に,ロバストさの欠如が根付いていることを示す。
我々は,光フローネットワークを物理的パッチベース攻撃に対して堅牢にするために,これらの誤りを正す方法を示す。
- 参考スコア(独自算出の注目度): 45.55988088321407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work demonstrated the lack of robustness of optical flow networks to
physical, patch-based adversarial attacks. The possibility to physically attack
a basic component of automotive systems is a reason for serious concerns. In
this paper, we analyze the cause of the problem and show that the lack of
robustness is rooted in the classical aperture problem of optical flow
estimation in combination with bad choices in the details of the network
architecture. We show how these mistakes can be rectified in order to make
optical flow networks robust to physical, patch-based attacks.
- Abstract(参考訳): 最近の研究は、物理的、パッチベースの敵攻撃に対する光学フローネットワークの堅牢性の欠如を実証した。
自動車システムの基本コンポーネントを物理的に攻撃する可能性は、深刻な懸念の理由である。
本稿では,この問題の原因を分析し,ロバスト性の欠如は,ネットワークアーキテクチャの細部において,光学フロー推定の古典的な開口問題と悪い選択の組み合わせに根ざしていることを示す。
我々は,光フローネットワークを物理的パッチベース攻撃に対して堅牢にするために,これらの誤りを正す方法を示す。
関連論文リスト
- Attack on Scene Flow using Point Clouds [9.115508086522887]
本稿では,シーンフローネットワークに特化して,敵のホワイトボックス攻撃を導入する。
実験結果から, 生成した逆数例は平均点誤差において最大33.7の相対劣化が得られることがわかった。
この研究は、一次元または色チャネルの点雲を標的とする攻撃が、平均的な端点誤差に与える影響も明らかにしている。
論文 参考訳(メタデータ) (2024-04-21T11:21:27Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Localizing Anomalies in Critical Infrastructure using Model-Based Drift
Explanations [5.319765271848658]
ベイジアンネットワークを用いたネットワークをモデル化し,異常が重要なインフラシステムの力学に与える影響を解析する。
特に、モデルに基づく概念ドリフトの説明は異常の局所化に有望なツールであると主張する。
本手法がより一般的に重要なインフラに適用可能であることを示すために,本手法が電力系統におけるセンサ故障の局所化に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-24T13:33:19Z) - Self-Healing Robust Neural Networks via Closed-Loop Control [23.360913637445964]
典型的な自己修復機構は人体の免疫系である。
本稿では,ニューラルネットワークの学習後の自己修復について考察する。
本研究では,様々な攻撃や摂動によるエラーを自動的に検出し,修正するクローズドループ制御式を提案する。
論文 参考訳(メタデータ) (2022-06-26T20:25:35Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Problems of representation of electrocardiograms in convolutional neural
networks [58.720142291102135]
これらの問題は本質的に体系的であることを示す。
これらは、畳み込みネットワークが複合オブジェクトでどのように機能するかに起因するが、その一部は厳格に固定されていないが、大きな移動性を持っている。
論文 参考訳(メタデータ) (2020-12-01T14:02:06Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。