論文の概要: Developing Imperceptible Adversarial Patches to Camouflage Military
Assets From Computer Vision Enabled Technologies
- arxiv url: http://arxiv.org/abs/2202.08892v1
- Date: Thu, 17 Feb 2022 20:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:29:31.722809
- Title: Developing Imperceptible Adversarial Patches to Camouflage Military
Assets From Computer Vision Enabled Technologies
- Title(参考訳): コンピュータビジョンによるカモフラージュ軍用アセットに対する非知覚的敵パッチの開発
- Authors: Christopher Wise, Jo Plested
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、オブジェクト検出の急速な進歩と高いレベルの成功を示している。
最近の証拠は敵の攻撃に対する脆弱性を浮き彫りにした。
本稿では、大規模な軍事資産を模倣することのできる、知覚不能なパッチを生成するユニークな方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have demonstrated rapid progress and a
high level of success in object detection. However, recent evidence has
highlighted their vulnerability to adversarial attacks. These attacks are
calculated image perturbations or adversarial patches that result in object
misclassification or detection suppression. Traditional camouflage methods are
impractical when applied to disguise aircraft and other large mobile assets
from autonomous detection in intelligence, surveillance and reconnaissance
technologies and fifth generation missiles. In this paper we present a unique
method that produces imperceptible patches capable of camouflaging large
military assets from computer vision-enabled technologies. We developed these
patches by maximising object detection loss whilst limiting the patch's colour
perceptibility. This work also aims to further the understanding of adversarial
examples and their effects on object detection algorithms.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、オブジェクト検出の急速な進歩と高いレベルの成功を示している。
しかし、近年の証拠は敵の攻撃に対する脆弱性を浮き彫りにした。
これらの攻撃は、対象の誤分類や検出の抑制をもたらす画像の摂動や敵のパッチが計算される。
伝統的なカモフラージュ手法は、情報、監視および偵察技術および第5世代のミサイルにおける自律的な検出から航空機や他の大きな移動資産を偽装する場合、実用的でない。
本稿では,コンピュータビジョン対応技術から大規模軍事資産をカモフラームできる非受容性パッチを作製するユニークな手法を提案する。
対象検出損失を最大化しつつ,パッチの色知覚性を制限することにより,これらのパッチを開発した。
本研究は,対象検出アルゴリズムに対する敵例とその影響の理解を深めることを目的とする。
関連論文リスト
- TPatch: A Triggered Physical Adversarial Patch [19.768494127237393]
音響信号によって引き起こされる物理的対向パッチであるTPatchを提案する。
運転者の疑念を避けるため,コンテンツベースカモフラージュ法と攻撃強化法を提案する。
論文 参考訳(メタデータ) (2023-12-30T06:06:01Z) - Adversarial Camera Patch: An Effective and Robust Physical-World Attack
on Object Detectors [0.0]
研究者たちはパッチベースの物理的攻撃を探求していますが、従来のアプローチは効果的ですが、多くの場合、ターゲットオブジェクトをカバーする顕著なパッチが発生します。
近年、カメラベースの物理的攻撃が出現し、カメラパッチを活用してステルス攻撃を実行している。
この問題に対処するために,ADCP (Adversarial Camera Patch) を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:56:50Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - The Weaknesses of Adversarial Camouflage in Overhead Imagery [7.724233098666892]
バス、車、トラック、バンの4つの異なるクラスを偽装するために、24の反対パッチからなるライブラリを構築します。
敵のパッチは、オブジェクト検出器を騙すかもしれないが、そのようなパッチの存在は、しばしば容易に明らかである。
これにより、このようなパッチが本当にカモフラージュを構成するかどうかという疑問が持ち上がる。
論文 参考訳(メタデータ) (2022-07-06T20:39:21Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Temporal Shuffling for Defending Deep Action Recognition Models against
Adversarial Attacks [67.58887471137436]
本研究では,動作認識モデルに対する対人攻撃に対して,入力ビデオの時間的シャッフルを用いた新しい防御手法を開発した。
我々の知る限りでは、これは3D CNNに基づく映像行動認識モデルのための追加トレーニングなしで防御方法を設計する最初の試みである。
論文 参考訳(メタデータ) (2021-12-15T06:57:01Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Adversarial Patch Camouflage against Aerial Detection [2.3268622345249796]
深層学習に基づく物体検出装置をドローンの監視映像に適用することにより、地上の軍事資産の検出を行うことができる。
本研究では,無人航空監視のユースケースに対して,パッチベースの敵攻撃を適用した。
以上の結果から,敵パッチ攻撃は従来のカモフラージュ活動の代替となる可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-31T15:21:50Z) - CCA: Exploring the Possibility of Contextual Camouflage Attack on Object
Detection [16.384831731988204]
対象検出器の性能に影響を及ぼすためのコンテキストカモフラージュ攻撃(CCA)アルゴリズムを提案する。
本稿では,フォトリアリスティック・シミュレートされた環境における進化的探索戦略と対向機械学習の相互作用について述べる。
提案されたカモフラージュは、最先端の物体検出器の多くに有効であることが検証されている。
論文 参考訳(メタデータ) (2020-08-19T06:16:10Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。