論文の概要: Uncertainty Quantification for Collaborative Object Detection Under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2502.02537v1
- Date: Tue, 04 Feb 2025 18:03:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:09.187825
- Title: Uncertainty Quantification for Collaborative Object Detection Under Adversarial Attacks
- Title(参考訳): 対向攻撃による協調物体検出の不確かさの定量化
- Authors: Huiqun Huang, Cong Chen, Jean-Philippe Monteuuis, Jonathan Petit, Fei Miao,
- Abstract要約: 協調オブジェクト検出(COD)と協調認識は、様々なエンティティからのデータや特徴を統合することができる。
敵対的攻撃は、ディープラーニングCODモデルに潜在的な脅威をもたらす。
我々は、協調知覚フレームワーク(TUQCP)における信頼された不確実性定量化を提案する。
- 参考スコア(独自算出の注目度): 6.535251134834875
- License:
- Abstract: Collaborative Object Detection (COD) and collaborative perception can integrate data or features from various entities, and improve object detection accuracy compared with individual perception. However, adversarial attacks pose a potential threat to the deep learning COD models, and introduce high output uncertainty. With unknown attack models, it becomes even more challenging to improve COD resiliency and quantify the output uncertainty for highly dynamic perception scenes such as autonomous vehicles. In this study, we propose the Trusted Uncertainty Quantification in Collaborative Perception framework (TUQCP). TUQCP leverages both adversarial training and uncertainty quantification techniques to enhance the adversarial robustness of existing COD models. More specifically, TUQCP first adds perturbations to the shared information of randomly selected agents during object detection collaboration by adversarial training. TUQCP then alleviates the impacts of adversarial attacks by providing output uncertainty estimation through learning-based module and uncertainty calibration through conformal prediction. Our framework works for early and intermediate collaboration COD models and single-agent object detection models. We evaluate TUQCP on V2X-Sim, a comprehensive collaborative perception dataset for autonomous driving, and demonstrate a 80.41% improvement in object detection accuracy compared to the baselines under the same adversarial attacks. TUQCP demonstrates the importance of uncertainty quantification to COD under adversarial attacks.
- Abstract(参考訳): 協調物体検出(COD)と協調知覚は、様々な実体からのデータや特徴を統合することができ、個々の知覚と比較して物体検出精度を向上させることができる。
しかし、敵対的攻撃は深層学習型CODモデルに潜在的な脅威をもたらし、高い出力の不確実性をもたらす。
未知の攻撃モデルにより、自動運転車のような高ダイナミックな知覚シーンのCODレジリエンスを改善し、出力の不確実性を定量化することがさらに困難になる。
本研究では,コラボレーティブ・パーセプション・フレームワーク(TUQCP)における信頼不確実性定量化手法を提案する。
TUQCPは、既存のCODモデルの対向的堅牢性を高めるために、敵対的トレーニングと不確実性定量化技術の両方を活用する。
より具体的には、TUQCPはまず、対向訓練によるオブジェクト検出コラボレーション中にランダムに選択されたエージェントの共有情報に摂動を追加する。
TUQCPは、学習ベースモジュールによる出力不確実性推定と整合予測による不確実性校正を提供することにより、敵攻撃の影響を軽減する。
本フレームワークは,CODモデルと単一エージェントオブジェクト検出モデルに対して,早期・中間的な協調作業を行う。
自律運転のための総合的な協調認識データセットであるV2X-Sim上でTUQCPを評価し、同じ対向攻撃下でのベースラインと比較して、オブジェクト検出精度が80.41%向上したことを示す。
TUQCPは、敵の攻撃下でのCODに対する不確実な定量化の重要性を示す。
関連論文リスト
- UAHOI: Uncertainty-aware Robust Interaction Learning for HOI Detection [18.25576487115016]
本稿では,Human-Object Interaction(HOI)検出について述べる。
与えられた画像やビデオフレーム内の人間とオブジェクト間の相互作用を識別し、理解するという課題に対処する。
本研究では,不確実性を考慮したロバストなヒューマンオブジェクトインタラクション学習であるtextscUAHOIを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:06:39Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - Collaborative Multi-Object Tracking with Conformal Uncertainty
Propagation [30.47064353266713]
コラボレーティブオブジェクト検出(COD)は,検出精度の向上と不確かさの低減を目的として提案されている。
我々はMOT性能を向上させるためにMOT-CUPと呼ばれる不確実性伝播フレームワークを設計する。
本フレームワークは, 直接モデリングと共形予測によりCODの不確かさを定量化し, この不確かさを運動予測および関連ステップに伝達する。
論文 参考訳(メタデータ) (2023-03-25T03:32:01Z) - Uncertainty Quantification of Collaborative Detection for Self-Driving [12.590332512097698]
連結車両と自律車両(CAV)間の情報共有は、自動運転のための協調物体検出の性能を向上させる。
しかし、CAVは実用上の課題のため、まだ物体検出に不確実性を持っている。
我々の研究は、協調物体検出の不確かさを最初に見積もるものである。
論文 参考訳(メタデータ) (2022-09-16T20:30:45Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。