論文の概要: SafeCast: Risk-Responsive Motion Forecasting for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2503.22541v1
- Date: Fri, 28 Mar 2025 15:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 19:09:59.745427
- Title: SafeCast: Risk-Responsive Motion Forecasting for Autonomous Vehicles
- Title(参考訳): SafeCast:自動運転車のリスク対応モーション予測
- Authors: Haicheng Liao, Hanlin Kong, Bin Rao, Bonan Wang, Chengyue Wang, Guyang Yu, Yuming Huang, Ruru Tang, Chengzhong Xu, Zhenning Li,
- Abstract要約: リスク応答型モーション予測モデルであるSafeCastを提案する。
安全を意識した意思決定と不確実性を意識した適応性を統合する。
我々のモデルは、軽量なアーキテクチャと低推論レイテンシを維持しながら、最先端(SOTA)の精度を実現する。
- 参考スコア(独自算出の注目度): 12.607007386467329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate motion forecasting is essential for the safety and reliability of autonomous driving (AD) systems. While existing methods have made significant progress, they often overlook explicit safety constraints and struggle to capture the complex interactions among traffic agents, environmental factors, and motion dynamics. To address these challenges, we present SafeCast, a risk-responsive motion forecasting model that integrates safety-aware decision-making with uncertainty-aware adaptability. SafeCast is the first to incorporate the Responsibility-Sensitive Safety (RSS) framework into motion forecasting, encoding interpretable safety rules--such as safe distances and collision avoidance--based on traffic norms and physical principles. To further enhance robustness, we introduce the Graph Uncertainty Feature (GUF), a graph-based module that injects learnable noise into Graph Attention Networks, capturing real-world uncertainties and enhancing generalization across diverse scenarios. We evaluate SafeCast on four real-world benchmark datasets--Next Generation Simulation (NGSIM), Highway Drone (HighD), ApolloScape, and the Macao Connected Autonomous Driving (MoCAD)--covering highway, urban, and mixed-autonomy traffic environments. Our model achieves state-of-the-art (SOTA) accuracy while maintaining a lightweight architecture and low inference latency, underscoring its potential for real-time deployment in safety-critical AD systems.
- Abstract(参考訳): 正確な動き予測は自律運転(AD)システムの安全性と信頼性に不可欠である。
既存の手法は大きな進歩を遂げているが、しばしば明確な安全制約を見落とし、交通機関間の複雑な相互作用、環境要因、動きのダイナミクスを捉えるのに苦労する。
これらの課題に対処するために,安全対応型意思決定と不確実性対応性を統合したリスク対応型モーション予測モデルSafeCastを提案する。
Responsibility-Sensitive Safety (RSS)フレームワークをモーション予測に組み入れ、安全な距離や衝突回避といった解釈可能な安全ルールを符号化する。
このグラフベースのモジュールは、学習可能なノイズをグラフ注意ネットワークに注入し、実際の不確実性をキャプチャし、さまざまなシナリオにまたがる一般化を強化する。
Next Generation Simulation(NGSIM)、HighD(HighD)、ApolloScape(ApolloScape)、Macao Connected Autonomous Driving(MoCAD)の4つの実世界のベンチマークデータセット上でSafeCastを評価する。
本モデルは,軽量なアーキテクチャと低推論遅延を維持しつつ,最先端(SOTA)の精度を実現し,安全クリティカルなADシステムにおけるリアルタイム展開の可能性を強調した。
関連論文リスト
- Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
MLLM(Multimodal Large Language Models)は、視覚データとテキストデータの両方を処理する。
構造化されていない知識と構造化されていない知識の両方を取り入れることでMLLMベースの自動運転システムを強化する新しいフレームワークであるSafeAutoを提案する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Minds on the Move: Decoding Trajectory Prediction in Autonomous Driving with Cognitive Insights [18.92479778025183]
運転シナリオでは、車両の軌道は人間の運転者の意思決定プロセスによって決定される。
従来のモデルは人間のドライバーの真の意図を捉えることができず、長期の軌道予測において最適以下の性能をもたらす。
ドライバーの意思決定メカニズムを解釈するために,認知的概念である知覚安全を取り入れた認知情報変換器(CITF)を導入する。
論文 参考訳(メタデータ) (2025-02-27T13:43:17Z) - SafeDrive: Knowledge- and Data-Driven Risk-Sensitive Decision-Making for Autonomous Vehicles with Large Language Models [14.790308656087316]
SafeDriveは、自律運転の安全性と適応性を高めるための、知識とデータ駆動型リスクに敏感な意思決定フレームワークである。
知識駆動型洞察と適応学習機構を統合することにより、不確実な条件下での堅牢な意思決定を保証する。
論文 参考訳(メタデータ) (2024-12-17T16:45:27Z) - Enhancing Autonomous Driving Safety through World Model-Based Predictive Navigation and Adaptive Learning Algorithms for 5G Wireless Applications [7.686911269899608]
NavSecureは、脅威を予測し、安全なルートを定式化するビジョンベースのナビゲーションフレームワークである。
我々のアプローチは、大規模な実世界の試行錯誤学習の必要性を減らす。
NavSecureは、衝突防止やリスク低減など、重要な安全性指標に優れています。
論文 参考訳(メタデータ) (2024-11-22T16:16:07Z) - Digital Twin-based Driver Risk-Aware Intelligent Mobility Analytics for Urban Transportation Management [18.015270631863665]
本稿では,デジタルツインをベースとしたドライバリスク認識知能モビリティ分析システムを提案する。
DT-DIMAシステムはパンティルトカメラからのリアルタイムトラフィック情報を統合する。
このシステムは、ネットワーク全体のモビリティと安全性のリスクをリアルタイムで予測する。
論文 参考訳(メタデータ) (2024-07-03T01:44:22Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safety-aware Causal Representation for Trustworthy Offline Reinforcement
Learning in Autonomous Driving [33.672722472758636]
オフライン強化学習(RL)アプローチは、オフラインデータセットからのシーケンシャルな意思決定問題に対処する上で、顕著な効果を示す。
一般化可能なエンドツーエンド駆動ポリシの学習を容易にするために,saFety-aware strUctured Scenario representation (Fusion)を導入した。
様々な運転シナリオにおける実証的な証拠は、フュージョンが自律運転エージェントの安全性と一般化性を著しく向上させることを証明している。
論文 参考訳(メタデータ) (2023-10-31T18:21:24Z) - USC: Uncompromising Spatial Constraints for Safety-Oriented 3D Object Detectors in Autonomous Driving [7.355977594790584]
自律運転における3次元物体検出器の安全性指向性能について考察する。
本稿では,単純だが重要な局所化要件を特徴付ける空間的制約 (USC) について述べる。
既存のモデルに対する安全性指向の微調整を可能にするために,定量的な測定値を共通損失関数に組み込む。
論文 参考訳(メタデータ) (2022-09-21T14:03:08Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。