論文の概要: Learning Mutual View Information Graph for Adaptive Adversarial Collaborative Perception
- arxiv url: http://arxiv.org/abs/2602.19596v1
- Date: Mon, 23 Feb 2026 08:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.728839
- Title: Learning Mutual View Information Graph for Adaptive Adversarial Collaborative Perception
- Title(参考訳): 適応的相互協調認識のための相互視点情報グラフの学習
- Authors: Yihang Tao, Senkang Hu, Haonan An, Zhengru Fang, Hangcheng Cao, Yuguang Fang,
- Abstract要約: 協調認識(CP)は、コネクテッド車と自律車の間でのデータ共有を可能にする。
CPシステムは、悪意のあるエージェントが特徴レベルの摂動を通じて偽のオブジェクトを偽造する敵攻撃に対して脆弱である。
本稿では,新たな適応型CPフレームワークであるMVIG攻撃(MVIG攻撃)を提案する。
- 参考スコア(独自算出の注目度): 16.561087419776985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative perception (CP) enables data sharing among connected and autonomous vehicles (CAVs) to enhance driving safety. However, CP systems are vulnerable to adversarial attacks where malicious agents forge false objects via feature-level perturbations. Current defensive systems use threshold-based consensus verification by comparing collaborative and ego detection results. Yet, these defenses remain vulnerable to more sophisticated attack strategies that could exploit two critical weaknesses: (i) lack of robustness against attacks with systematic timing and target region optimization, and (ii) inadvertent disclosure of vulnerability knowledge through implicit confidence information in shared collaboration data. In this paper, we propose MVIG attack, a novel adaptive adversarial CP framework learning to capture vulnerability knowledge disclosed by different defensive CP systems from a unified mutual view information graph (MVIG) representation. Our approach combines MVIG representation with temporal graph learning to generate evolving fabrication risk maps and employs entropy-aware vulnerability search to optimize attack location, timing and persistence, enabling adaptive attacks with generalizability across various defensive configurations. Extensive evaluations on OPV2V and Adv-OPV2V datasets demonstrate that MVIG attack reduces defense success rates by up to 62\% against state-of-the-art defenses while achieving 47\% lower detection for persistent attacks at 29.9 FPS, exposing critical security gaps in CP systems. Code will be released at https://github.com/yihangtao/MVIG.git
- Abstract(参考訳): 協調知覚(CP)は、コネクテッドおよび自律走行車(CAV)間のデータ共有を可能にし、運転安全性を高める。
しかし、CPシステムは、悪意のあるエージェントが特徴レベルの摂動を通じて偽のオブジェクトを偽造する敵攻撃に対して脆弱である。
現在の防衛システムは、協調検出結果とエゴ検出結果を比較して閾値に基づくコンセンサス検証を使用する。
しかし、これらの防御は、2つの重大な弱点を悪用できるより高度な攻撃戦略に弱いままである。
一 系統的タイミング及び目標地域最適化による攻撃に対する堅牢性の欠如及び
(II)共有コラボレーションデータにおける暗黙の信頼情報による脆弱性知識の意図しない開示。
本稿では,MVIG攻撃(MVIG攻撃)を提案する。MVIG攻撃(MVIG攻撃)は,異なる防衛CPシステムによって開示される脆弱性知識を,統一された相互視点情報グラフ(MVIG)表現から捉えるための適応的逆CPフレームワークである。
提案手法は,MVIG表現と時間グラフ学習を組み合わせることで,進化する製造リスクマップを生成するとともに,攻撃位置,タイミング,永続性を最適化するエントロピー対応脆弱性探索を用いて,各種防御構成の一般化可能なアタックを可能にする。
OPV2VとAdv-OPV2Vデータセットの大規模な評価により、MVIG攻撃は、最先端の防御に対する防衛成功率を最大62.%削減し、29.9 FPSでの永続攻撃に対する47.%低い検出を達成し、CPシステムにおける重要なセキュリティギャップを明らかにすることが示されている。
コードはhttps://github.com/yihangtao/MVIG.gitでリリースされる。
関連論文リスト
- CP-Guard+: A New Paradigm for Malicious Agent Detection and Defense in Collaborative Perception [53.088988929450494]
協調知覚(CP)は、安全で自律的な運転のための有望な方法である。
本稿では,悪意のあるエージェントを機能レベルで効果的に識別する,悪意のあるエージェント検出のための新しいパラダイムを提案する。
また,CP-Guard+と呼ばれる堅牢な防御手法を開発し,良性の表現と悪質な特徴とのマージンを高める。
論文 参考訳(メタデータ) (2025-02-07T12:58:45Z) - GCP: Guarded Collaborative Perception with Spatial-Temporal Aware Malicious Agent Detection [11.336965062177722]
協調的知覚は、悪意のあるエージェントからの敵対的なメッセージ攻撃に対して脆弱である。
本稿では,既存の単発外乱検出手法を損なう新しい盲検領域混乱(BAC)攻撃を明らかにする。
本稿では、空間的時間的認識による悪意のあるエージェント検出に基づくガード付き協調認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-05T06:03:26Z) - Slot: Provenance-Driven APT Detection through Graph Reinforcement Learning [24.84110719035862]
先進的永続脅威(Advanced Persistent Threats、APT)は、長期にわたって検出されていない能力によって特徴づけられる高度なサイバー攻撃である。
本稿では,前駆グラフとグラフ強化学習に基づく高度なAPT検出手法であるSlotを提案する。
Slotの卓越した精度、効率、適応性、そしてAPT検出の堅牢性を示し、ほとんどのメトリクスは最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-10-23T14:28:32Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。