論文の概要: All Vehicles Can Lie: Efficient Adversarial Defense in Fully Untrusted-Vehicle Collaborative Perception via Pseudo-Random Bayesian Inference
- arxiv url: http://arxiv.org/abs/2603.08498v1
- Date: Mon, 09 Mar 2026 15:32:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.305525
- Title: All Vehicles Can Lie: Efficient Adversarial Defense in Fully Untrusted-Vehicle Collaborative Perception via Pseudo-Random Bayesian Inference
- Title(参考訳): すべての車両が嘘をつく:疑似ランダムベイズ推論による完全信頼できない車両協調知覚における効率的な敵防衛
- Authors: Yi Yu, Libing Wu, Zhuangzhuang Zhang, Jing Qiu, Lijuan Huo, Jiaqi Feng,
- Abstract要約: 協調知覚(CP)により、複数の車両が特徴レベルの知覚データを交換することで、個々の知覚能力を高めることができる。
この融合機構は本質的に敵攻撃、特に完全に信頼できない車両環境では脆弱である。
完全に信頼できない車両CPに適した,最初の効率的な防御手法であるPseudo-Random Bayesian Inference (PRBI) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.973965834032622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative perception (CP) enables multiple vehicles to augment their individual perception capacities through the exchange of feature-level sensory data. However, this fusion mechanism is inherently vulnerable to adversarial attacks, especially in fully untrusted-vehicle environments. Existing defense approaches often assume a trusted ego vehicle as a reference or incorporate additional binary classifiers. These assumptions limit their practicality in real-world deployments due to the questionable trustworthiness of ego vehicles, the requirement for real-time detection, and the need for generalizability across diverse scenarios. To address these challenges, we propose a novel Pseudo-Random Bayesian Inference (PRBI) framework, a first efficient defense method tailored for fully untrusted-vehicle CP. PRBI detects adversarial behavior by leveraging temporal perceptual discrepancies, using the reliable perception from the preceding frame as a dynamic reference. Additionally, it employs a pseudo-random grouping strategy that requires only two verifications per frame, while applying Bayesian inference to estimate both the number and identities of malicious vehicles. Theoretical analysis has proven the convergence and stability of the proposed PRBI framework. Extensive experiments show that PRBI requires only 2.5 verifications per frame on average, outperforming existing methods significantly, and restores detection precision to between 79.4% and 86.9% of pre-attack levels.
- Abstract(参考訳): 協調知覚(CP)により、複数の車両が特徴レベルの知覚データを交換することで、個々の知覚能力を高めることができる。
しかし、この融合機構は本質的に敵攻撃、特に完全に信頼できない車両環境では脆弱である。
既存の防衛アプローチでは、信頼できるエゴ車両を参照として、または追加のバイナリ分類器を組み込む場合が多い。
これらの仮定は、エゴ車両の疑わしい信頼性、リアルタイム検出の要件、様々なシナリオにまたがる一般化性の必要性により、現実の展開における実用性を制限している。
これらの課題に対処するために,完全信頼の無いCPに適した,最初の効率的な防御手法であるPseudo-Random Bayesian Inference (PRBI) フレームワークを提案する。
PRBIは, 時間的知覚の相違を利用して, 前フレームからの信頼度を動的参照として検出する。
さらに、悪質な車両の数と身元を推定するためにベイズ推定を適用しながら、1フレームあたり2つの検証しか必要としない疑似ランダムなグループ化戦略を採用している。
理論的解析により提案されたPRBIフレームワークの収束と安定性が証明された。
大規模な実験により、PRBIは1フレームあたり平均2.5の検証しか必要とせず、既存の手法を著しく上回り、検出精度を79.4%から86.9%まで回復することが示された。
関連論文リスト
- Faster-HEAL: An Efficient and Privacy-Preserving Collaborative Perception Framework for Heterogeneous Autonomous Vehicles [4.904389322133549]
協調的認識は、自動運転車の状況認識を改善するための有望なパラダイムである。
我々は、低ランクな視覚的プロンプトを微調整し、不均一な特徴を統一的な特徴空間と整合させるフレームワークであるFaster-HEALを提案する。
このアプローチは、トレーニング可能なパラメータを94%削減し、大きなモデルを再トレーニングすることなく、新しいエージェントへの効率的な適応を可能にする。
論文 参考訳(メタデータ) (2026-03-07T19:18:25Z) - Debiased Dual-Invariant Defense for Adversarially Robust Person Re-Identification [52.63017280231648]
人物再識別(ReID)は、歩行者軌道追跡などの現実の多くの応用において、基本的な課題である。
Person ReIDモデルは、歩行者画像に対する知覚不能な摂動が完全に誤った予測を引き起こすような、敵の攻撃に非常に敏感である。
本稿では,2つの相からなる二重不変防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-13T03:56:40Z) - GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - CP-Guard+: A New Paradigm for Malicious Agent Detection and Defense in Collaborative Perception [53.088988929450494]
協調知覚(CP)は、安全で自律的な運転のための有望な方法である。
本稿では,悪意のあるエージェントを機能レベルで効果的に識別する,悪意のあるエージェント検出のための新しいパラダイムを提案する。
また,CP-Guard+と呼ばれる堅牢な防御手法を開発し,良性の表現と悪質な特徴とのマージンを高める。
論文 参考訳(メタデータ) (2025-02-07T12:58:45Z) - GCP: Guarded Collaborative Perception with Spatial-Temporal Aware Malicious Agent Detection [11.336965062177722]
協調的知覚は、悪意のあるエージェントからの敵対的なメッセージ攻撃に対して脆弱である。
本稿では,既存の単発外乱検出手法を損なう新しい盲検領域混乱(BAC)攻撃を明らかにする。
本稿では、空間的時間的認識による悪意のあるエージェント検出に基づくガード付き協調認識フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-05T06:03:26Z) - Zero-Knowledge Proof of Traffic: A Deterministic and Privacy-Preserving Cross Verification Mechanism for Cooperative Perception Data [7.919995199824006]
本研究では、ゼロ知識の証明(zk-PoT)と呼ばれる新しい手法を提案する。
同じ車両に関する複数の独立した証明は、基底的真理、確率的、あるいは確率的評価に頼らずに、どの受信機でも決定論的に相互検証することができる。
提案手法は、ETSI(European Telecommunications Standards Institute)やISO(International Organization for Standardization)ITS(International Organization for Standardization)など、既存の業務に組み込むことができる。
論文 参考訳(メタデータ) (2023-12-13T07:53:06Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - Kick Bad Guys Out! Conditionally Activated Anomaly Detection in Federated Learning with Zero-Knowledge Proof Verification [31.38942054994932]
フェデレーテッド・ラーニング(FL)システムは敵の攻撃を受けやすい。
RedJasperは、現実世界のFLデプロイメント用に特別に設計された2段階の異常検出手法である。
第1段階で不審な活動を特定し、第2段階を条件付きで活性化し、不審な局所モデルをさらに精査する。
論文 参考訳(メタデータ) (2023-10-06T07:09:05Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。