論文の概要: Eroding Trust In Aerial Imagery: Comprehensive Analysis and Evaluation
Of Adversarial Attacks In Geospatial Systems
- arxiv url: http://arxiv.org/abs/2312.07389v1
- Date: Tue, 12 Dec 2023 16:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 15:27:37.740959
- Title: Eroding Trust In Aerial Imagery: Comprehensive Analysis and Evaluation
Of Adversarial Attacks In Geospatial Systems
- Title(参考訳): 航空画像における信頼の獲得:地理空間システムにおける敵攻撃の包括的分析と評価
- Authors: Michael Lanier, Aayush Dhakal, Zhexiao Xiong, Arthur Li, Nathan
Jacobs, Yevgeniy Vorobeychik
- Abstract要約: 地理空間システムにおける敵攻撃の信頼性を低下させる方法を示す。
高品質なSpaceNetデータセットを用いたリモートセンシングシステムに対する脅威を実証的に示す。
- 参考スコア(独自算出の注目度): 24.953306643091484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In critical operations where aerial imagery plays an essential role, the
integrity and trustworthiness of data are paramount. The emergence of
adversarial attacks, particularly those that exploit control over labels or
employ physically feasible trojans, threatens to erode that trust, making the
analysis and mitigation of these attacks a matter of urgency. We demonstrate
how adversarial attacks can degrade confidence in geospatial systems,
specifically focusing on scenarios where the attacker's control over labels is
restricted and the use of realistic threat vectors. Proposing and evaluating
several innovative attack methodologies, including those tailored to overhead
images, we empirically show their threat to remote sensing systems using
high-quality SpaceNet datasets. Our experimentation reflects the unique
challenges posed by aerial imagery, and these preliminary results not only
reveal the potential risks but also highlight the non-trivial nature of the
problem compared to recent works.
- Abstract(参考訳): 航空画像が重要な役割を果たす重要な作戦では、データの完全性と信頼性が重要となる。
敵の攻撃の出現、特にラベルの制御を利用したり、物理的に実現可能なトロイの木馬を雇ったりは、その信頼を損なうと脅し、これらの攻撃の分析と緩和を緊急の問題にしている。
具体的には,攻撃者のラベルに対する制御が制限されているシナリオと,現実的な脅威ベクトルの使用に焦点を当てた。
頭上画像に合わせた手法を含む,いくつかの革新的な攻撃手法の提案と評価を行い,高品質なspacenetデータセットを用いたリモートセンシングシステムに対する脅威を実証的に示した。
我々の実験は、航空画像がもたらす固有の課題を反映しており、これらの予備的な結果は、潜在的なリスクだけでなく、最近の研究と比べて、問題の非自明な性質を強調している。
関連論文リスト
- On Data Fabrication in Collaborative Vehicular Perception: Attacks and
Countermeasures [22.338269462708368]
コネクテッド・自動運転車(CAV)の知覚能力を大幅に向上させる協調的知覚は、潜在的なセキュリティリスクをもたらす。
本研究では,攻撃者が悪質なデータを被害者に提供し,その知覚結果を妨害する各種リアルタイムデータ作成攻撃を提案する。
我々の攻撃は、高忠実度シミュレーションシナリオにおいて86%以上の高い成功率を示し、実世界の実験で実現可能である。
本研究では、良性車両が悪質な製造を共同で明らかにできる系統的異常検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-22T15:54:04Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Contextual adversarial attack against aerial detection in the physical
world [8.826711009649133]
ディープニューラルネットワーク(DNN)は、空中検出に広く利用されている。
物理的な攻撃は、現実の世界でより実践的であるため、徐々にホットな問題になっている。
本研究では,実シナリオにおける空中検出に対する革新的なコンテキストアタック手法を提案する。
論文 参考訳(メタデータ) (2023-02-27T02:57:58Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Understanding Object Detection Through An Adversarial Lens [14.976840260248913]
本稿では, 対向レンズ下での深部物体検出装置の脆弱性を分析し評価するための枠組みを提案する。
提案手法は, リアルタイムオブジェクト検出システムにおいて, 対向行動やリスクを解析するための方法論的ベンチマークとして機能することが実証された。
我々は、このフレームワークが、現実世界のアプリケーションにデプロイされるディープオブジェクト検出器のセキュリティリスクと敵の堅牢性を評価するツールとしても役立つと推測する。
論文 参考訳(メタデータ) (2020-07-11T18:41:47Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。