論文の概要: PlanT: Explainable Planning Transformers via Object-Level
Representations
- arxiv url: http://arxiv.org/abs/2210.14222v1
- Date: Tue, 25 Oct 2022 17:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:11:21.971801
- Title: PlanT: Explainable Planning Transformers via Object-Level
Representations
- Title(参考訳): PlanT: オブジェクトレベル表現による説明可能な計画変換器
- Authors: Katrin Renz, Kashyap Chitta, Otniel-Bogdan Mercea, A. Sophia Koepke,
Zeynep Akata, Andreas Geiger
- Abstract要約: PlanTは、自動運転のコンテキストにおける計画のための新しいアプローチである。
PlanTは、コンパクトなオブジェクトレベルの入力表現を持つ模倣学習に基づいている。
この結果から,PlanTは幾何学的に距離をおいても,現場で最も関連性の高い物体に焦点を合わせることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 64.93938686101309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Planning an optimal route in a complex environment requires efficient
reasoning about the surrounding scene. While human drivers prioritize important
objects and ignore details not relevant to the decision, learning-based
planners typically extract features from dense, high-dimensional grid
representations containing all vehicle and road context information. In this
paper, we propose PlanT, a novel approach for planning in the context of
self-driving that uses a standard transformer architecture. PlanT is based on
imitation learning with a compact object-level input representation. On the
Longest6 benchmark for CARLA, PlanT outperforms all prior methods (matching the
driving score of the expert) while being 5.3x faster than equivalent
pixel-based planning baselines during inference. Combining PlanT with an
off-the-shelf perception module provides a sensor-based driving system that is
more than 10 points better in terms of driving score than the existing state of
the art. Furthermore, we propose an evaluation protocol to quantify the ability
of planners to identify relevant objects, providing insights regarding their
decision-making. Our results indicate that PlanT can focus on the most relevant
object in the scene, even when this object is geometrically distant.
- Abstract(参考訳): 複雑な環境で最適なルートを計画するには、周囲のシーンを効率的に推論する必要がある。
人間のドライバは重要なオブジェクトを優先し、決定に関係のない詳細を無視するが、学習ベースのプランナーは通常、すべての車両と道路状況情報を含む高次元グリッド表現から特徴を抽出する。
本稿では、標準変圧器アーキテクチャを用いた自動運転の文脈で計画する新しい手法であるプラントを提案する。
PlanTは、コンパクトなオブジェクトレベルの入力表現を持つ模倣学習に基づいている。
CARLAのLongest6ベンチマークでは、PlanTは、推論中に同等のピクセルベースのプランニングベースラインよりも5.3倍高速で、すべての先行手法(専門家の運転スコアにマッチする)を上回っている。
PlanTと市販の知覚モジュールを組み合わせることで、既存の最先端技術よりも10ポイント以上優れたセンサーベースの運転システムを提供できる。
さらに,計画立案者が関連する対象を識別する能力を定量化し,意思決定に関する洞察を与える評価プロトコルを提案する。
この結果から,PlanTは幾何学的に離れた場所でも,最も関連性の高い物体に焦点を絞ることができることがわかった。
関連論文リスト
- Stable Object Placement Planning From Contact Point Robustness [12.575068666209832]
我々のプランナーはまず接触点を選択し、次に選択した点をソリケートする配置ポーズを決定する。
本アルゴリズムは, 物体形状, 凸性, 質量密度の均一性に制約を加えることなく, 安定性を考慮した物体配置計画を容易にする。
論文 参考訳(メタデータ) (2024-10-16T12:02:15Z) - SparseDrive: End-to-End Autonomous Driving via Sparse Scene Representation [11.011219709863875]
我々はSparseDriveという新しいエンドツーエンドの自動運転パラダイムを提案する。
SparseDriveは対称なスパース認識モジュールとパラレルモーションプランナーで構成されている。
動作予測と計画について,これら2つの課題の相似性を概観し,運動プランナの並列設計に繋がる。
論文 参考訳(メタデータ) (2024-05-30T02:13:56Z) - On the Road to Portability: Compressing End-to-End Motion Planner for Autonomous Driving [38.35997586629021]
ディープニューラルネットワークを備えたエンドツーエンドのモーションプランニングモデルは、完全な自律運転を可能にする大きな可能性を示している。
過大なニューラルネットワークは、リソースに制約のあるシステムへのデプロイにおいて実用的ではなく、参照中により多くの計算時間とリソースを必要とする。
エンド・ツー・エンド・モーション・プランナの圧縮に適した最初の知識蒸留フレームワークであるPlanKDを提案する。
論文 参考訳(メタデータ) (2024-03-02T15:47:42Z) - PAS-SLAM: A Visual SLAM System for Planar Ambiguous Scenes [41.47703182059505]
平面不明瞭なシーンを対象とした平面的特徴に基づく視覚的SLAMシステムを提案する。
本稿では,平面パラメータ,意味情報,投影IoU,非パラメトリックテストを組み合わせた統合データアソシエーション戦略を提案する。
最後に、カメラポーズ最適化のための多重制約係数グラフのセットを設計する。
論文 参考訳(メタデータ) (2024-02-09T01:34:26Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - Planning Irregular Object Packing via Hierarchical Reinforcement
Learning [85.64313062912491]
本研究では,不規則物体のパッケージングシーケンスと配置を計画するための階層的強化学習手法を提案する。
我々の手法は、不規則なオブジェクトの最先端のパッキング方法よりも、より少ない時間でより多くのオブジェクトをパックできることを示す。
論文 参考訳(メタデータ) (2022-11-17T07:16:37Z) - Online Grounding of PDDL Domains by Acting and Sensing in Unknown
Environments [62.11612385360421]
本稿では,エージェントが異なるタスクを実行できるフレームワークを提案する。
機械学習モデルを統合して、感覚データを抽象化し、目標達成のためのシンボリックプランニング、ナビゲーションのためのパスプランニングを行う。
提案手法を,RGB-Dオンボードカメラ,GPS,コンパスなど,正確なシミュレーション環境で評価する。
論文 参考訳(メタデータ) (2021-12-18T21:48:20Z) - Differentiable Spatial Planning using Transformers [87.90709874369192]
本研究では、長距離空間依存を計画して行動を生成する障害マップを与えられた空間計画変換器(SPT)を提案する。
エージェントが地上の真理マップを知らない環境では、エンド・ツー・エンドのフレームワークで事前訓練されたSPTを利用する。
SPTは、操作タスクとナビゲーションタスクの両方のすべてのセットアップにおいて、最先端の差別化可能なプランナーよりも優れています。
論文 参考訳(メタデータ) (2021-12-02T06:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。