論文の概要: An Open-Source Modular Benchmark for Diffusion-Based Motion Planning in Closed-Loop Autonomous Driving
- arxiv url: http://arxiv.org/abs/2603.01023v1
- Date: Sun, 01 Mar 2026 10:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.466211
- Title: An Open-Source Modular Benchmark for Diffusion-Based Motion Planning in Closed-Loop Autonomous Driving
- Title(参考訳): 閉ループ自律運転における拡散型運動計画のためのオープンソースのモジュールベンチマーク
- Authors: Yun Li, Simon Thompson, Yidu Zhang, Ehsan Javanmardi, Manabu Tsukada,
- Abstract要約: 拡散に基づく運動プランナーは、nuPlanのようなベンチマークで最先端の結果を得た。
しかし、クローズドループ生産における自動運転スタックの評価は、まだ明らかにされていない。
両ギャップに対処するオープンソースのモジュラーベンチマークを提示する。
- 参考スコア(独自算出の注目度): 6.095431709661074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based motion planners have achieved state-of-the-art results on benchmarks such as nuPlan, yet their evaluation within closed-loop production autonomous driving stacks remains largely unexplored. Existing evaluations abstract away ROS 2 communication latency and real-time scheduling constraints, while monolithic ONNX deployment freezes all solver parameters at export time. We present an open-source modular benchmark that addresses both gaps: using ONNX GraphSurgeon, we decompose a monolithic 18,398 node diffusion planner into three independently executable modules and reimplement the DPM-Solver++ denoising loop in native C++. Integrated as a ROS 2 node within Autoware, the open-source AD stack deployed on real vehicles worldwide, the system enables runtime-configurable solver parameters without model recompilation and per-step observability of the denoising process, breaking the black box of monolithic deployment. Unlike evaluations in standalone simulators such as CARLA, our benchmark operates within a production-grade stack and is validated through AWSIM closed-loop simulation. Through systematic comparison of DPM-Solver++ (first- and second-order) and DDIM across six step-count configurations (N in {3, 5, 7, 10, 15, 20}), we show that encoder caching yields a 3.2x latency reduction, and that second-order solving reduces FDE by 41% at N=3 compared to first-order. The complete codebase will be released as open-source, providing a direct path from simulation benchmarks to real-vehicle deployment.
- Abstract(参考訳): 拡散に基づく運動プランナーは、nuPlanのようなベンチマークで最先端の結果を得たが、クローズドループ生産の自律走行スタックにおける評価は、まだ明らかにされていない。
既存の評価では、ROS 2通信遅延とリアルタイムスケジューリングの制約を抽象化し、モノリシックなONNXデプロイメントはエクスポート時にすべての解決パラメータを凍結する。
ONNX GraphSurgeonを用いて、モノリシックな18,398ノード拡散プランナを3つの独立した実行可能モジュールに分解し、ネイティブC++でDPM-Solver++デノナイズループを再実装する。
実車にデプロイされるオープンソースのADスタックであるAutoware内のROS 2ノードとして統合されたこのシステムは、モデルの再コンパイルなしに実行時設定可能なソルバパラメータを可能にし、デノナイズプロセスのステップごとの可観測性を実現し、モノリシックなデプロイメントのブラックボックスを壊す。
CARLAのようなスタンドアロンシミュレータとは異なり、我々のベンチマークはプロダクショングレードスタック内で動作し、AWSIMクローズドループシミュレーションによって検証される。
DPM-Solver++(第1次・第2次)とDDIM(第3次・第5次・第7次・第10次・第5次・第5次・第10次・第5次・第15次・第20次)の体系的な比較により,エンコーダキャッシングは3.2倍のレイテンシ低下を示し,第2次解法は1次に比べてN=3でFDEを41%削減することを示した。
完全なコードベースはオープンソースとしてリリースされ、シミュレーションベンチマークから実際のデプロイメントへの直接的なパスを提供する。
関連論文リスト
- Prism: Efficient Test-Time Scaling via Hierarchical Search and Self-Verification for Discrete Diffusion Language Models [96.0074341403456]
LLM推論を改善するための実用的な方法として、推論時計算が再導入されている。
テスト時間スケーリング(TTS)アルゴリズムの多くは、自動回帰デコーディングに依存している。
そこで我々は,dLLM のための効率的な TTS フレームワーク Prism を提案する。
論文 参考訳(メタデータ) (2026-02-02T09:14:51Z) - A Serverless Edge-Native Data Processing Architecture for Autonomous Driving Training [0.0]
本稿では,車載データフィルタリングとユーザ定義関数による処理が可能なエッジネイティブプラットフォームであるフレームワークを紹介する。
NVIDIA Jetson Orin Nano上でフレームワークを評価し、ネイティブのROS 2デプロイメントと比較する。
その結果、競合性能、レイテンシの低減、ジッタが示され、Lambdaベースの抽象化が組み込み自律運転システムでリアルタイムデータ処理をサポートできることが確認された。
論文 参考訳(メタデータ) (2026-01-30T12:41:11Z) - Fast and Realistic Automated Scenario Simulations and Reporting for an Autonomous Racing Stack [1.40300365696538]
本稿では,自動レーススタック ur.autopilot に実装された自動シミュレーションとレポートパイプラインについて述べる。
パイプラインは、ソフトウェアスタックとシミュレーションを、リアルタイムよりも最大3倍高速に実行できる。
本稿では,センサ遅延や摂動の導入,スタックの任意のノードの出力の変更が可能なフォールトインジェクションモジュールの実装方法について述べる。
論文 参考訳(メタデータ) (2025-12-30T18:36:20Z) - Eliminating Multi-GPU Performance Taxes: A Systems Approach to Efficient Distributed LLMs [61.953548065938385]
分析フレームワークとして'3つの税'(バルク同期、カーネル間データローカリティ、カーネルローンチオーバーヘッド)を紹介した。
我々は、分散GPU実行におけるキー非効率に対処するために、厳密なBSPモデルを超えて移動することを提案する。
BSPベースのアプローチによるエンドツーエンドのレイテンシの10-20%の高速化を観察する。
論文 参考訳(メタデータ) (2025-11-04T01:15:44Z) - Scalable Engine and the Performance of Different LLM Models in a SLURM based HPC architecture [3.746889836344766]
本研究は、SLURM(Simple Linux Utility for Resource Management)に基づく高性能コンピューティングアーキテクチャについて詳述する。
動的リソーススケジューリングとコンテナ化のシームレスな統合は、CPU、GPU、メモリをマルチノードクラスタで効率的に管理するために活用されている。
その結果,大規模HPCインフラストラクチャ上でのLLM推論は,より効率的で応答性が高く,耐故障性に優れた。
論文 参考訳(メタデータ) (2025-08-25T09:11:27Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - Bench2Drive-R: Turning Real World Data into Reactive Closed-Loop Autonomous Driving Benchmark by Generative Model [63.336123527432136]
我々は,リアクティブ閉ループ評価を可能にする生成フレームワークであるBench2Drive-Rを紹介する。
既存の自動運転用ビデオ生成モデルとは異なり、提案された設計はインタラクティブなシミュレーションに適したものである。
我々は、Bench2Drive-Rの生成品質を既存の生成モデルと比較し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-12-11T06:35:18Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。