論文の概要: SafeCoop: Unravelling Full Stack Safety in Agentic Collaborative Driving
- arxiv url: http://arxiv.org/abs/2510.18123v1
- Date: Mon, 20 Oct 2025 21:41:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.643283
- Title: SafeCoop: Unravelling Full Stack Safety in Agentic Collaborative Driving
- Title(参考訳): セーフクープ:エージェント共同運転で全スタック安全を脅かす
- Authors: Xiangbo Gao, Tzu-Hsiang Lin, Ruojing Song, Yuheng Wu, Kuan-Ru Huang, Zicheng Jin, Fangzhou Lin, Shinan Liu, Zhengzhong Tu,
- Abstract要約: 協調運転システムは、運転安全性と効率を高めるために、複数のエージェント間での車両間通信(V2X)を利用する。
従来のV2Xシステムは、高い帯域幅要求、セマンティック損失、相互運用性の問題など、永続的な課題に直面している。
近年, 自然言語を有望な媒体として検討し, セマンティック・リッチネス, 意思決定レベルの推論, 人と機械の相互運用を実現し, 帯域幅の大幅な削減を実現している。
- 参考スコア(独自算出の注目度): 16.620713493180165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative driving systems leverage vehicle-to-everything (V2X) communication across multiple agents to enhance driving safety and efficiency. Traditional V2X systems take raw sensor data, neural features, or perception results as communication media, which face persistent challenges, including high bandwidth demands, semantic loss, and interoperability issues. Recent advances investigate natural language as a promising medium, which can provide semantic richness, decision-level reasoning, and human-machine interoperability at significantly lower bandwidth. Despite great promise, this paradigm shift also introduces new vulnerabilities within language communication, including message loss, hallucinations, semantic manipulation, and adversarial attacks. In this work, we present the first systematic study of full-stack safety and security issues in natural-language-based collaborative driving. Specifically, we develop a comprehensive taxonomy of attack strategies, including connection disruption, relay/replay interference, content spoofing, and multi-connection forgery. To mitigate these risks, we introduce an agentic defense pipeline, which we call SafeCoop, that integrates a semantic firewall, language-perception consistency checks, and multi-source consensus, enabled by an agentic transformation function for cross-frame spatial alignment. We systematically evaluate SafeCoop in closed-loop CARLA simulation across 32 critical scenarios, achieving 69.15% driving score improvement under malicious attacks and up to 67.32% F1 score for malicious detection. This study provides guidance for advancing research on safe, secure, and trustworthy language-driven collaboration in transportation systems. Our project page is https://xiangbogaobarry.github.io/SafeCoop.
- Abstract(参考訳): 協調運転システムは、運転安全性と効率を高めるために、複数のエージェント間での車両間通信(V2X)を利用する。
従来のV2Xシステムは、生のセンサデータ、ニューラル特徴、あるいは知覚結果を通信メディアとして取り込んでおり、高い帯域幅要求、セマンティックロス、相互運用性の問題など、永続的な課題に直面している。
近年, 自然言語を有望な媒体として検討し, セマンティック・リッチネス, 意思決定レベルの推論, 人と機械の相互運用を実現し, 帯域幅の大幅な削減を実現している。
大きな約束にもかかわらず、このパラダイムシフトは、メッセージ損失、幻覚、セマンティック操作、敵攻撃など、言語コミュニケーションにおける新たな脆弱性も導入している。
本研究は,自然言語による協調運転における安全・安全問題に関する最初の体系的研究である。
具体的には、接続破壊、リレー/リプレイ干渉、コンテンツスプーフィング、マルチコネクションフォージェリなど、攻撃戦略の包括的分類法を開発する。
これらのリスクを軽減するために,セマンティックファイアウォール,言語知覚整合性チェック,マルチソースコンセンサスを統合し,クロスフレーム空間アライメントのためのエージェント変換関数によって実現した,SafeCoopと呼ばれるエージェント防御パイプラインを導入する。
我々は,32のクリティカルシナリオにわたるクローズドループCARLAシミュレーションにおいてSafeCoopを系統的に評価し,悪意のある攻撃による運転スコアの改善を69.15%,悪意のある検出のために67.32%のF1スコアを達成した。
本研究は,交通システムにおける安全,安全,信頼に足る言語主導型コラボレーションの研究を進めるためのガイダンスを提供する。
私たちのプロジェクトページはhttps://xiangbogaobarry.github.io/SafeCoopです。
関連論文リスト
- UNCAP: Uncertainty-Guided Planning Using Natural Language Communication for Cooperative Autonomous Vehicles [79.10221881250759]
不確実性誘導自然言語協調自律計画(UNCAP)は、視覚言語モデルに基づく計画手法である。
CAVは、意思決定における認識の不確実性を明示的に考慮しながら、軽量な自然言語メッセージを介して通信することができる。
多様な運転シナリオに対する実験では、通信帯域幅が63%減少し、運転安全スコアが31%増加し、決定の不確実性が61%減少し、衝突距離マージンが4倍増加した。
論文 参考訳(メタデータ) (2025-10-14T21:09:09Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - LangCoop: Collaborative Driving with Language [13.25814019477039]
LangCoopは、自然言語をエージェント間通信のためのコンパクトで表現力のある媒体として活用する、協調自律運転の新しいパラダイムである。
LangCoopは、画像ベースの通信に比べて、通信帯域幅(メッセージあたり2KB)が96%減少している。
論文 参考訳(メタデータ) (2025-04-18T02:03:14Z) - Steering Dialogue Dynamics for Robustness against Multi-turn Jailbreaking Attacks [59.300698230887114]
大規模言語モデル(LLM)は、有害な応答を誘発するために敵のプロンプトが設計されたジェイルブレイク攻撃に対して脆弱であることが示されている。
安全制御理論に基づく安全ステアリングフレームワークを提案し,マルチターン対話における不変安全性を保証する。
論文 参考訳(メタデータ) (2025-02-28T21:10:03Z) - Machine Learning-Based Malicious Vehicle Detection for Security Threats
and Attacks in Vehicle Ad-hoc Network (VANET) Communications [0.48951183832371004]
ブラックホール攻撃は自動車アドホックネットワーク(VANET)にとって重要な脅威である
本稿では,VANETにおけるブラックホール検出のための機械学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-16T06:01:02Z) - OblivIO: Securing reactive programs by oblivious execution with bounded traffic overheads [0.0]
トラフィック分析攻撃は、オンラインセキュリティにとって重要な問題である。
オンラインサービスが暗号化トラフィックをますます利用しているにもかかわらず、トラフィックの形状は隠されていない。
OblivIOは、ネットワークイベントによって駆動されるリアクティブプログラムを書くためのセキュアな言語である。
論文 参考訳(メタデータ) (2023-01-19T15:59:33Z) - Safety-Enhanced Autonomous Driving Using Interpretable Sensor Fusion
Transformer [28.15612357340141]
我々は、InterFuser(Interpretable Sensor Fusion Transformer)という安全強化型自律走行フレームワークを提案する。
我々は、総合的なシーン理解と対向事象検出を実現するために、マルチモーダル・マルチビューセンサーからの情報を処理し、融合する。
私たちのフレームワークは、よりセマンティクスを提供し、安全なセット内のアクションをよりよく制約するために利用されます。
論文 参考訳(メタデータ) (2022-07-28T11:36:21Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。