論文の概要: Physical Adversarial Examples for Multi-Camera Systems
- arxiv url: http://arxiv.org/abs/2311.08539v1
- Date: Tue, 14 Nov 2023 21:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:32:20.717630
- Title: Physical Adversarial Examples for Multi-Camera Systems
- Title(参考訳): マルチカメラシステムの物理応用例
- Authors: Ana R\u{a}du\c{t}oiu and Jan-Philipp Schulze and Philip Sperl and
Konstantin B\"ottinger
- Abstract要約: 物理対向例に対するマルチカメラ装置のロバスト性を評価する。
Transcender-MCは、最先端の手法よりも、マルチカメラのセットアップをうまく攻撃するのに11%有効である。
- 参考スコア(独自算出の注目度): 2.3759432635713895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks build the foundation of several intelligent systems, which,
however, are known to be easily fooled by adversarial examples. Recent advances
made these attacks possible even in air-gapped scenarios, where the autonomous
system observes its surroundings by, e.g., a camera. We extend these ideas in
our research and evaluate the robustness of multi-camera setups against such
physical adversarial examples. This scenario becomes ever more important with
the rise in popularity of autonomous vehicles, which fuse the information of
several cameras for their driving decision. While we find that multi-camera
setups provide some robustness towards past attack methods, we see that this
advantage reduces when optimizing on multiple perspectives at once. We propose
a novel attack method that we call Transcender-MC, where we incorporate online
3D renderings and perspective projections in the training process. Moreover, we
motivate that certain data augmentation techniques can facilitate the
generation of successful adversarial examples even further. Transcender-MC is
11% more effective in successfully attacking multi-camera setups than
state-of-the-art methods. Our findings offer valuable insights regarding the
resilience of object detection in a setup with multiple cameras and motivate
the need of developing adequate defense mechanisms against them.
- Abstract(参考訳): ニューラルネットワークはいくつかのインテリジェントシステムの基盤を構築するが、敵の例によって簡単に騙されることが知られている。
近年の進歩は、例えばカメラによって自律システムが周囲を観察する空飛ぶシナリオでもこれらの攻撃を可能にした。
我々は,これらのアイデアを研究に拡張し,このような物理対角的な例に対してマルチカメラ装置の堅牢性を評価する。
このシナリオは、自動運転車の人気が高まり、運転決定のために複数のカメラの情報を取り除き、ますます重要になる。
マルチカメラのセットアップは過去の攻撃方法に対する堅牢性を提供するが、この利点は複数の視点を同時に最適化する場合に減少する。
本稿では,オンライン3Dレンダリングと視点投影をトレーニングプロセスに組み込んだ,Transcender-MCと呼ばれる新たな攻撃手法を提案する。
さらに,特定のデータ拡張技術により,より良好な敵例の生成が促進される可能性が示唆された。
Transcender-MCは、最先端の手法よりも、マルチカメラのセットアップをうまく攻撃するのに11%有効である。
以上の知見は,複数のカメラを備えた装置において物体検出の弾力性に関する貴重な知見を提供し,それらに対して適切な防御機構を開発する必要性を示唆する。
関連論文リスト
- Modeling Electromagnetic Signal Injection Attacks on Camera-based Smart Systems: Applications and Mitigation [18.909937495767313]
電磁波は安全またはセキュリティクリティカルなシステムに脅威をもたらす。
このような攻撃により、攻撃者はリモートで画像を操作でき、誤ったAI判断につながる。
本研究は,攻撃に対する堅牢性を向上させるための対人訓練に関するパイロット研究である。
論文 参考訳(メタデータ) (2024-08-09T15:33:28Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - On the Adversarial Robustness of Camera-based 3D Object Detection [21.091078268929667]
本研究では, カメラを用いた3次元物体検出手法の諸条件下でのロバスト性について検討する。
鳥眼ビューに基づく表現は, 局所攻撃に対する強い強靭性を示す。
深さ推定のないアプローチは、強い強靭性を示す可能性がある。
マルチフレームベニグインプットを組み込むことで、敵攻撃を効果的に軽減することができる。
論文 参考訳(メタデータ) (2023-01-25T18:59:15Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - They See Me Rollin': Inherent Vulnerability of the Rolling Shutter in
CMOS Image Sensors [21.5487020124302]
カメラの電子回転シャッターを利用して微細な画像破壊を注入することができる。
敵がレーザーを変調して、最先端の検出器で認識される物体の75%を隠蔽する方法を示す。
以上の結果から,ローリングシャッター攻撃は視覚に基づくインテリジェントシステムの性能と信頼性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T11:14:25Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。