論文の概要: SafePlanner: Testing Safety of the Automated Driving System Plan Model
- arxiv url: http://arxiv.org/abs/2601.09171v1
- Date: Wed, 14 Jan 2026 05:14:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.279251
- Title: SafePlanner: Testing Safety of the Automated Driving System Plan Model
- Title(参考訳): SafePlanner: 自動走行システム計画モデルの安全性をテストする
- Authors: Dohyun Kim, Sanggu Han, Sangmin Woo, Joonha Jang, Jaehoon Kim, Changhun Song, Yongdae Kim,
- Abstract要約: SafePlannerは、自動運転システムのプランモデルにおける安全クリティカルな欠陥を特定するためのフレームワークである。
構造的に意味のあるテストシナリオを生成し、有害な計画行動を検出する。
83.63パーセントの機能を達成し、63.22パーセントの意思決定をプランモデルでカバーし、バグ発見と効率の両方においてベースラインを上回っている。
- 参考スコア(独自算出の注目度): 12.833174109894843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present SafePlanner, a systematic testing framework for identifying safety-critical flaws in the Plan model of Automated Driving Systems (ADS). SafePlanner targets two core challenges: generating structurally meaningful test scenarios and detecting hazardous planning behaviors. To maximize coverage, SafePlanner performs a structural analysis of the Plan model implementation - specifically, its scene-transition logic and hierarchical control flow - and uses this insight to extract feasible scene transitions from code. It then composes test scenarios by combining these transitions with non-player vehicle (NPC) behaviors. Guided fuzzing is applied to explore the behavioral space of the Plan model under these scenarios. We evaluate SafePlanner on Baidu Apollo, a production-grade level 4 ADS. It generates 20635 test cases and detects 520 hazardous behaviors, grouped into 15 root causes through manual analysis. For four of these, we applied patches based on our analysis; the issues disappeared, and no apparent side effects were observed. SafePlanner achieves 83.63 percent function and 63.22 percent decision coverage on the Plan model, outperforming baselines in both bug discovery and efficiency.
- Abstract(参考訳): 本研究では,ADS(Automated Driving Systems)のPlanモデルにおける安全性クリティカルな欠陥を特定するための,系統的テストフレームワークであるSafePlannerを紹介する。
SafePlannerは,構造的に意味のあるテストシナリオの生成と,有害な計画行動の検出という,2つの課題をターゲットにしている。
カバレッジを最大化するために、SafePlannerはPlanモデル実装(特にシーン遷移ロジックと階層制御フロー)の構造解析を行い、この洞察を使ってコードから実行可能なシーン遷移を抽出する。
次に、これらの遷移とNPC(Non-player Vehicle)の振る舞いを組み合わせることで、テストシナリオを構成する。
これらのシナリオの下で、Planモデルの振る舞い空間を探索するために、ガイドファジッシングを適用する。
プロダクショングレードのレベル4 ADSであるBaidu Apollo上でSafePlannerを評価した。
20635件のテストケースを生成し、520件の有害な行動を検出し、手動による分析によって15の根本原因に分類する。
これらのうち4件について, 分析に基づいてパッチを適用し, 問題点は消失し, 副作用はみられなかった。
SafePlannerは、83.63パーセントの機能を達成し、63.22パーセントの意思決定をプランモデルでカバーし、バグ発見と効率の両方においてベースラインを上回っている。
関連論文リスト
- A Future Capabilities Agent for Tactical Air Traffic Control [0.0]
エージェント・マラード(Agens Mallard)は、システム化された空域における制御のためのルールベースの戦術的エージェントである。
このアーキテクチャは、モデルに基づく安全性評価、解釈可能な決定論理、およびトラクタブルな計算性能を組み合わせることを意図している。
論文 参考訳(メタデータ) (2026-01-07T14:19:46Z) - Building a Foundational Guardrail for General Agentic Systems via Synthetic Data [76.18834864749606]
LLMエージェントは、計画段階で介入するマルチステップタスクを計画できる。
既存のガードレールは主にポスト・エグゼクティブ(英語版)を運用しており、スケーリングが困難であり、計画レベルで制御可能な監督を行う余地がほとんどない。
我々は、良性軌道を合成し、カテゴリーラベル付きリスクを困難に注入し、自動報酬モデルを介して出力をフィルタリングする制御可能なエンジンであるAuraGenを紹介する。
論文 参考訳(メタデータ) (2025-10-10T18:42:32Z) - AGENTSAFE: Benchmarking the Safety of Embodied Agents on Hazardous Instructions [64.85086226439954]
本稿では,有害な指示に対するVLMエージェントの安全性を評価するためのベンチマークであるSAFEを提案する。
SAFEは、SAFE−THOR、SAFE−VERSE、SAFE−DIAGNOSEの3つの成分からなる。
我々は、ハザード認識を安全な計画と実行に翻訳する体系的な失敗を明らかにする。
論文 参考訳(メタデータ) (2025-06-17T16:37:35Z) - Plan-R1: Safe and Feasible Trajectory Planning as Language Modeling [74.41886258801209]
本稿では,行動学習から原理的アライメントを分離する2段階の軌道計画フレームワークを提案する。
Plan-R1は計画の安全性と実現可能性を大幅に改善し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2025-05-23T09:22:19Z) - Attacking Motion Planners Using Adversarial Perception Errors [5.423900036420565]
様々な知覚品質の指標で非常に高いスコアを得たプランナー入力を構築できるが、それでも計画上の失敗に繋がることを示す。
都市・高速道路の運転シナリオにおいて、2つの異なるブラックボックスプランナに対する攻撃を見つけることで,このアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-21T16:51:33Z) - HALO: Hazard-Aware Landing Optimization for Autonomous Systems [1.5414037351414311]
本稿では,ハザード検出,最適着陸軌道生成,緊急計画課題に対処する認識計画手法を提案する。
本研究では,HALSS(Hazard-Aware Landing Site Selection)とAdaptive Deferred-Decision Trajectory Optimization(Adaptive Deferred-Decision Trajectory Optimization,-DDTO)という2つの新しいアルゴリズムを開発し,統合し,認識と計画の課題に対処する。
シミュレーションした火星環境を用いたアプローチの有効性を実証し, 組み合わせた認識計画法が着地成功率を高めることを示す。
論文 参考訳(メタデータ) (2023-04-04T07:20:06Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z) - Discovering Avoidable Planner Failures of Autonomous Vehicles using
Counterfactual Analysis in Behaviorally Diverse Simulation [16.86782673205523]
本稿では,行動学的に多様な交通参加者をシミュレートする上で,近年の進歩を生かしたプランナーテストフレームワークを提案する。
提案手法は,多岐にわたる重要な計画立案者の失敗を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-11-24T09:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。