論文の概要: Verifiable Goal Recognition for Autonomous Driving with Occlusions
- arxiv url: http://arxiv.org/abs/2206.14163v1
- Date: Tue, 28 Jun 2022 17:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 15:07:56.456578
- Title: Verifiable Goal Recognition for Autonomous Driving with Occlusions
- Title(参考訳): 閉塞性自律運転における目標認識の検証
- Authors: Cillian Brewitt, Massimiliano Tamborski, Stefano V. Albrecht
- Abstract要約: 自動運転車のゴール認識手法であるGRITは、高速で、正確で、解釈可能で、検証可能であることが示されている。
我々は、OGRIT(Occlusion)の下で解釈可能な木を用いたゴール認識という新しいゴール認識手法を提案する。
- 参考スコア(独自算出の注目度): 7.179176375461265
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: When used in autonomous driving, goal recognition allows the future behaviour
of other vehicles to be more accurately predicted. A recent goal recognition
method for autonomous vehicles, GRIT, has been shown to be fast, accurate,
interpretable and verifiable. In autonomous driving, vehicles can encounter
novel scenarios that were unseen during training, and the environment is
partially observable due to occlusions. However, GRIT can only operate in fixed
frame scenarios, with full observability. We present a novel goal recognition
method named Goal Recognition with Interpretable Trees under Occlusion (OGRIT),
which solves these shortcomings of GRIT. We demonstrate that OGRIT can
generalise between different scenarios and handle missing data due to
occlusions, while still being fast, accurate, interpretable and verifiable.
- Abstract(参考訳): 自動運転に使用される場合、目標認識により、他の車両の将来の挙動をより正確に予測することができる。
最近の自動運転車の目標認識手法であるgritは、高速、正確、解釈可能、検証可能であることが示されている。
自動運転車では、トレーニング中に目に見えない新しいシナリオに遭遇し、閉塞のため環境が部分的に観察可能である。
しかし、GRITは完全な可観測性を持つ固定フレームシナリオでしか動作できない。
OGRIT (Occlusion) によるゴール認識手法としてゴール認識(Goal Recognition with Interpretable Trees)を提案する。
我々は,OGRITが異なるシナリオ間で一般化し,排他的に欠落したデータを扱える一方で,高速で正確で,解釈可能で,検証可能であることを実証した。
関連論文リスト
- Reason2Drive: Towards Interpretable and Chain-based Reasoning for Autonomous Driving [38.28159034562901]
Reason2Driveは600万以上のビデオテキストペアを備えたベンチマークデータセットである。
我々は、自律運転プロセスが知覚、予測、推論ステップの逐次的な組み合わせであると特徴付けている。
本稿では,自律システムにおける連鎖型推論性能を評価するための新しい集計評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-06T18:32:33Z) - Nonparametric Spatio-Temporal Joint Probabilistic Data Association
Coupled Filter and Interfering Extended Target Tracking [5.485511147274347]
拡張された目標追跡は、空間と時間における目標の遠心率と形状を推定する。
拡張目標追跡が適用可能なさまざまな状況において、複数のターゲットの存在が干渉を引き起こす可能性がある。
JPDACFのバリエーションは、拡張ターゲットの問題に対処するために開発された。
論文 参考訳(メタデータ) (2023-08-22T13:39:20Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Automotive Radar Interference Mitigation with Unfolded Robust PCA based
on Residual Overcomplete Auto-Encoder Blocks [88.46770122522697]
自律走行では、レーダーシステムは道路上の他の車両のような標的を検出する上で重要な役割を果たす。
自動車用レーダー干渉緩和のための深層学習手法は、目標の振幅を確実に推定できるが、それぞれの目標の位相を回復できない。
干渉の有無で振幅と位相の両方を推定できる効率的かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2020-10-14T09:41:06Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z) - Vehicle Ego-Lane Estimation with Sensor Failure Modeling [6.0591945552030735]
高速道路のようなシナリオに対する確率的エゴレーン推定アルゴリズムを提案する。
このコントリビューションは、過渡的障害モデルを備えた隠れマルコフモデル(HMM)に依存します。
このアルゴリズムの有効性は、異なる線検出器を用いて証明される。
論文 参考訳(メタデータ) (2020-02-05T18:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。