論文の概要: FIERY: Future Instance Prediction in Bird's-Eye View from Surround
Monocular Cameras
- arxiv url: http://arxiv.org/abs/2104.10490v1
- Date: Wed, 21 Apr 2021 12:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:16:39.633129
- Title: FIERY: Future Instance Prediction in Bird's-Eye View from Surround
Monocular Cameras
- Title(参考訳): FIERY:一眼レフカメラによる鳥の視界の将来予測
- Authors: Anthony Hu, Zak Murez, Nikhil Mohan, Sof\'ia Dudas, Jeff Hawke, Vijay
Badrinarayanan, Roberto Cipolla, Alex Kendall
- Abstract要約: 単眼カメラによる鳥眼視における確率論的未来予測モデルFIERYを提案する。
我々のアプローチは、従来の自律運転スタックの知覚、センサー融合、予測コンポーネントを組み合わせています。
当社のモデルは,NuScenesとLyftのデータセットに基づく予測ベースラインよりも優れています。
- 参考スコア(独自算出の注目度): 33.08698074581615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driving requires interacting with road agents and predicting their future
behaviour in order to navigate safely. We present FIERY: a probabilistic future
prediction model in bird's-eye view from monocular cameras. Our model predicts
future instance segmentation and motion of dynamic agents that can be
transformed into non-parametric future trajectories. Our approach combines the
perception, sensor fusion and prediction components of a traditional autonomous
driving stack by estimating bird's-eye-view prediction directly from surround
RGB monocular camera inputs. FIERY learns to model the inherent stochastic
nature of the future directly from camera driving data in an end-to-end manner,
without relying on HD maps, and predicts multimodal future trajectories. We
show that our model outperforms previous prediction baselines on the NuScenes
and Lyft datasets. Code is available at https://github.com/wayveai/fiery
- Abstract(参考訳): 運転には、道路エージェントと対話し、安全にナビゲートするために将来の行動を予測する必要がある。
単眼カメラによる鳥眼視における確率論的未来予測モデルFIERYを提案する。
本モデルは,非パラメトリックな未来の軌跡に変換可能な動的エージェントの将来のインスタンスセグメンテーションと動作を予測する。
本手法は, 従来の自律走行スタックの知覚, センサフュージョン, および予測成分を, 周囲のRGB単眼カメラからの鳥眼視予測を直接推定することによって組み合わせる。
FIERYは、HDマップに頼ることなく、カメラ駆動データから直接、未来の本質的に確率的な性質をモデル化し、マルチモーダルな将来の軌跡を予測する。
当社のモデルは,NuScenesとLyftのデータセットに基づく予測ベースラインよりも優れています。
コードはhttps://github.com/wayveai/fieryで入手できる。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Comparison of Pedestrian Prediction Models from Trajectory and
Appearance Data for Autonomous Driving [13.126949982768505]
歩行者の動きを予測できる能力は、自動運転車にとって重要な能力である。
都市環境では、歩行者は道路エリアに入り、運転のリスクが高い。
本研究は,歩行者予測のための軌跡のみと外観に基づく手法の比較評価を行う。
論文 参考訳(メタデータ) (2023-05-25T11:24:38Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Conditioned Human Trajectory Prediction using Iterative Attention Blocks [70.36888514074022]
本研究では,都市環境における歩行者位置予測を目的とした,簡易かつ効果的な歩行者軌道予測モデルを提案する。
我々のモデルは、複数のアテンションブロックとトランスフォーマーを反復的に実行できるニューラルネットワークアーキテクチャである。
ソーシャルマスク, 動的モデル, ソーシャルプーリング層, 複雑なグラフのような構造を明示的に導入することなく, SoTAモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T07:49:48Z) - LaPred: Lane-Aware Prediction of Multi-Modal Future Trajectories of
Dynamic Agents [10.869902339190949]
本稿では,レーンアウェア予測 (lapred) ネットワークと呼ばれる新しい予測モデルを提案する。
LaPredは、セマンティックマップから抽出されたインスタンスレベルのレーンエンティティを使用して、マルチモーダルな将来の軌跡を予測する。
公開nuScenesとArgoverseデータセットで実施された実験は、提案したLaPred法が既存の予測モデルを大幅に上回ることを示した。
論文 参考訳(メタデータ) (2021-04-01T04:33:36Z) - Probabilistic Future Prediction for Video Scene Understanding [11.236856606065514]
本稿では,ビデオからの確率論的未来予測のための新しいディープラーニングアーキテクチャを提案する。
我々は、未来の意味論、複雑な現実世界の都市シーンの動きを予測し、この表現を使って自動運転車を制御する。
論文 参考訳(メタデータ) (2020-03-13T17:48:21Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。