論文の概要: PRANK: motion Prediction based on RANKing
- arxiv url: http://arxiv.org/abs/2010.12007v2
- Date: Tue, 15 Jun 2021 09:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:25:30.881624
- Title: PRANK: motion Prediction based on RANKing
- Title(参考訳): PRANK:RANKingに基づく動き予測
- Authors: Yuriy Biktairov, Maxim Stebelev, Irina Rudenko, Oleh Shliazhko, Boris
Yangel
- Abstract要約: エージェントの動作を予測することは、自律運転領域における最も重要な問題の一つである。
エージェントの軌道の条件分布を所定のシーンで決定できるPRANK法を提案する。
PRANKを社内とArgoverseのデータセットで評価し、競争結果を示す。
- 参考スコア(独自算出の注目度): 4.4861975043227345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the motion of agents such as pedestrians or human-driven vehicles
is one of the most critical problems in the autonomous driving domain. The
overall safety of driving and the comfort of a passenger directly depend on its
successful solution. The motion prediction problem also remains one of the most
challenging problems in autonomous driving engineering, mainly due to high
variance of the possible agent's future behavior given a situation. The two
phenomena responsible for the said variance are the multimodality caused by the
uncertainty of the agent's intent (e.g., turn right or move forward) and
uncertainty in the realization of a given intent (e.g., which lane to turn
into). To be useful within a real-time autonomous driving pipeline, a motion
prediction system must provide efficient ways to describe and quantify this
uncertainty, such as computing posterior modes and their probabilities or
estimating density at the point corresponding to a given trajectory. It also
should not put substantial density on physically impossible trajectories, as
they can confuse the system processing the predictions. In this paper, we
introduce the PRANK method, which satisfies these requirements. PRANK takes
rasterized bird-eye images of agent's surroundings as an input and extracts
features of the scene with a convolutional neural network. It then produces the
conditional distribution of agent's trajectories plausible in the given scene.
The key contribution of PRANK is a way to represent that distribution using
nearest-neighbor methods in latent trajectory space, which allows for efficient
inference in real time. We evaluate PRANK on the in-house and Argoverse
datasets, where it shows competitive results.
- Abstract(参考訳): 歩行者や人間の運転する車両などのエージェントの動きを予測することは、自動運転分野において最も重要な問題のひとつだ。
運転の全体的な安全性と乗客の快適さは、そのソリューションの成功に直接依存する。
動き予測問題は、状況に応じたエージェントの将来行動のばらつきが大きいため、自動運転工学における最も困難な問題の1つでもある。
この分散の原因となる2つの現象は、エージェントの意図の不確実性(例えば、右に曲がったり、前進したり)と、与えられた意図の実現における不確実性(例えば、どのレーンが変わるか)である。
リアルタイムの自動運転パイプラインで有用であるためには、動き予測システムは、後続モードとその確率を計算したり、与えられた軌道に対応する点における密度を推定するなど、この不確かさを記述し、定量化する効率的な方法を提供しなければならない。
また、システムの予測処理を混乱させるため、物理的に不可能な軌道にかなりの密度を置くべきではない。
本稿では,これらの要件を満たすPRANK法を提案する。
PRANKは、エージェントの周囲のラスタ化された鳥眼画像を入力として、畳み込みニューラルネットワークでシーンの特徴を抽出する。
そして、与えられたシーンで可能なエージェントの軌道の条件分布を生成する。
PRANKの鍵となる貢献は、近接軌道空間における最も近い隣り合う方法を用いて、その分布を表現することである。
PRANKを社内とArgoverseのデータセットで評価し、競争結果を示す。
関連論文リスト
- Building Real-time Awareness of Out-of-distribution in Trajectory Prediction for Autonomous Vehicles [8.398221841050349]
軌道予測は、自動運転車の周囲の障害物の動きを記述する。
本稿では,自律走行車における軌道予測におけるアウト・オブ・ディストリビューションのリアルタイム認識を確立することを目的とする。
提案手法は軽量であり, 軌道予測推定時にいつでもアウト・オブ・ディストリビューションの発生を処理できる。
論文 参考訳(メタデータ) (2024-09-25T18:43:58Z) - QuAD: Query-based Interpretable Neural Motion Planning for Autonomous Driving [33.609780917199394]
自動運転車は環境を理解して適切な行動を決定する必要がある。
従来のシステムは、シーン内のエージェントを見つけるためにオブジェクト検出に依存していた。
我々は、最初に占有する時間的自律性を知覚するカスケードモジュールから遠ざかる、統一的で解釈可能で効率的な自律フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-01T21:11:43Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Stochastic Trajectory Prediction via Motion Indeterminacy Diffusion [88.45326906116165]
運動不確定性拡散(MID)の逆過程として軌道予測タスクを定式化する新しい枠組みを提案する。
我々は,履歴行動情報と社会的相互作用を状態埋め込みとしてエンコードし,トランジトリの時間的依存性を捉えるためにトランスフォーマーに基づく拡散モデルを考案する。
スタンフォード・ドローンやETH/UCYデータセットなど,人間の軌道予測ベンチマーク実験により,本手法の優位性を実証した。
論文 参考訳(メタデータ) (2022-03-25T16:59:08Z) - Trajectory Forecasting from Detection with Uncertainty-Aware Motion
Encoding [121.66374635092097]
物体検出と追跡から得られる軌道は、必然的にうるさい。
本稿では, 明示的に形成された軌道に依存することなく, 直接検出結果に基づく軌道予測器を提案する。
論文 参考訳(メタデータ) (2022-02-03T09:09:56Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - Pedestrian Motion State Estimation From 2D Pose [3.189006905282788]
歩行者の交通違反やフレキシブルで変化しやすい性質は、歩行者の行動や意図を予測するのを難しくする。
歩行者運動状態やその他の影響要因と組み合わせることで、不要な事故を避けるために歩行者の意図を予測することができる。
本稿では,提案アルゴリズムをJAAD公開データセット上で検証し,既存の手法と比較して精度を11.6%向上させる。
論文 参考訳(メタデータ) (2021-02-27T07:00:06Z) - Attentional-GCNN: Adaptive Pedestrian Trajectory Prediction towards
Generic Autonomous Vehicle Use Cases [10.41902340952981]
本稿では,グラフのエッジに注目重みを割り当てることで,歩行者間の暗黙的相互作用に関する情報を集約する,GCNNに基づく新しいアプローチであるAttentional-GCNNを提案する。
提案手法は,10%平均変位誤差 (ADE) と12%最終変位誤差 (FDE) を高速な推論速度で向上することを示す。
論文 参考訳(メタデータ) (2020-11-23T03:13:26Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z) - Scenario-Transferable Semantic Graph Reasoning for Interaction-Aware
Probabilistic Prediction [29.623692599892365]
交通参加者の行動の正確な予測は、自動運転車にとって必須の能力である。
本稿では, セマンティクスとドメイン知識を活かして, 様々な運転環境に対する新しい汎用表現を提案する。
論文 参考訳(メタデータ) (2020-04-07T00:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。