論文の概要: AutoDetect: Designing an Autoencoder-based Detection Method for Poisoning Attacks on Object Detection Applications in the Military Domain
- arxiv url: http://arxiv.org/abs/2509.03179v1
- Date: Wed, 03 Sep 2025 10:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.481862
- Title: AutoDetect: Designing an Autoencoder-based Detection Method for Poisoning Attacks on Object Detection Applications in the Military Domain
- Title(参考訳): AutoDetect: 軍事領域におけるオブジェクト検出アプリケーションに対する攻撃を検知するためのオートエンコーダによる検出方法の設計
- Authors: Alma M. Liezenga, Stefan Wijnja, Puck de Haan, Niels W. T. Brink, Jip J. van Stijn, Yori Kamphuis, Klamer Schutte,
- Abstract要約: 攻撃は、軍事領域における人工知能システムのセキュリティと堅牢性に対する脅威を増大させる。
対象物検出システムに対する毒殺攻撃の応用と検出に関する限定的な研究がある。
AutoDetectは、シンプルで高速で軽量なオートエンコーダベースのメソッドです。
- 参考スコア(独自算出の注目度): 0.5863360388454261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Poisoning attacks pose an increasing threat to the security and robustness of Artificial Intelligence systems in the military domain. The widespread use of open-source datasets and pretrained models exacerbates this risk. Despite the severity of this threat, there is limited research on the application and detection of poisoning attacks on object detection systems. This is especially problematic in the military domain, where attacks can have grave consequences. In this work, we both investigate the effect of poisoning attacks on military object detectors in practice, and the best approach to detect these attacks. To support this research, we create a small, custom dataset featuring military vehicles: MilCivVeh. We explore the vulnerability of military object detectors for poisoning attacks by implementing a modified version of the BadDet attack: a patch-based poisoning attack. We then assess its impact, finding that while a positive attack success rate is achievable, it requires a substantial portion of the data to be poisoned -- raising questions about its practical applicability. To address the detection challenge, we test both specialized poisoning detection methods and anomaly detection methods from the visual industrial inspection domain. Since our research shows that both classes of methods are lacking, we introduce our own patch detection method: AutoDetect, a simple, fast, and lightweight autoencoder-based method. Our method shows promising results in separating clean from poisoned samples using the reconstruction error of image slices, outperforming existing methods, while being less time- and memory-intensive. We urge that the availability of large, representative datasets in the military domain is a prerequisite to further evaluate risks of poisoning attacks and opportunities patch detection.
- Abstract(参考訳): 攻撃は、軍事領域における人工知能システムのセキュリティと堅牢性に対する脅威を増大させる。
オープンソースデータセットと事前訓練されたモデルの普及により、このリスクが悪化する。
この脅威の深刻さにもかかわらず、物体検出システムに対する毒性攻撃の適用と検出について限定的な研究がなされている。
これは軍事領域において特に問題であり、攻撃が致命的な結果をもたらす可能性がある。
本研究は,軍事対象物検知器に対する毒殺攻撃の効果と,これらの攻撃を検知するための最善のアプローチについて検討する。
この研究を支援するために、軍用車両を含む小さなカスタムデータセット、MilCivVehを作成しました。
我々は、BadDet攻撃の修正版であるパッチベースの中毒攻撃を実装することで、軍用物体検知器の攻撃に対する脆弱性を探る。
そして、その影響を評価し、ポジティブな攻撃の成功率が達成可能である一方で、データの大部分を毒で汚染する必要があることに気付き、その実用性に関する疑問を提起する。
この検出課題に対処するため,視覚産業検査領域から特定毒素検出法と異常検出法の両方を試験した。
我々の研究は、両方のメソッドが欠落していることを示しているので、私たちは、AutoDetectという、シンプルで高速で軽量なオートエンコーダベースのメソッドを導入しています。
本手法は, 画像スライスの再構成誤差を用いて, 汚染試料の清浄を分離し, 従来の方法より優れ, 時間とメモリ集約性が低いことを示す。
軍事領域における大規模で代表的データセットの入手は、有害な攻撃やパッチ検出の可能性を更に評価するための前提条件である。
関連論文リスト
- Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - DataSentinel: A Game-Theoretic Detection of Prompt Injection Attacks [101.52204404377039]
LLM統合されたアプリケーションとエージェントは、インジェクション攻撃に弱い。
検出方法は、入力が注入プロンプトによって汚染されているかどうかを判定することを目的とする。
本研究では,迅速なインジェクション攻撃を検出するゲーム理論手法であるDataSentinelを提案する。
論文 参考訳(メタデータ) (2025-04-15T16:26:21Z) - On the Credibility of Backdoor Attacks Against Object Detectors in the Physical World [27.581277955830746]
アプリケーション設定における物理オブジェクトトリガーによるバックドア攻撃の有効性について検討する。
我々は、MORPHingと呼ばれる新しいコスト効率の高い攻撃方法を構築し、検出タスクのユニークな性質を取り入れた。
私たちは、現実世界のバックドア攻撃の広範なビデオテストセットをリリースしました。
論文 参考訳(メタデータ) (2024-08-22T04:29:48Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Can't Boil This Frog: Robustness of Online-Trained Autoencoder-Based
Anomaly Detectors to Adversarial Poisoning Attacks [26.09388179354751]
本研究は,オンライン学習型オートエンコーダを用いたアタック検出装置に対する中毒攻撃に焦点を当てた最初の研究である。
提案アルゴリズムは, オートエンコーダ検出器によって検出されない標的攻撃の原因となる毒のサンプルを生成することができることを示す。
この発見は、サイバー物理領域で使用されるニューラルネットワークベースの攻撃検出器が、他の問題領域よりも毒性に強いことを示唆している。
論文 参考訳(メタデータ) (2020-02-07T12:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。