論文の概要: Multimodal Future Localization and Emergence Prediction for Objects in
Egocentric View with a Reachability Prior
- arxiv url: http://arxiv.org/abs/2006.04700v1
- Date: Mon, 8 Jun 2020 15:57:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-24 02:11:26.091361
- Title: Multimodal Future Localization and Emergence Prediction for Objects in
Egocentric View with a Reachability Prior
- Title(参考訳): 到達性に先行した自己中心的視点における物体のマルチモーダルな将来の位置推定と創発予測
- Authors: Osama Makansi, \"Ozg\"un Cicek, Kevin Buchicchio, Thomas Brox
- Abstract要約: 移動車の観点から,将来の動態,特に他の車両や歩行者の将来の位置を予想する問題について検討する。
本研究では,現在画像のセマンティックマップから対象の特定のクラスに先行する到達可能性を推定し,計画されたエゴモーションを用いて未来へ伝播する。
実験により, 複数仮説学習と組み合わせた到達性により, 追跡対象の将来の位置のマルチモーダル予測が向上し, 新たな対象が出現した。
- 参考スコア(独自算出の注目度): 36.80686175878314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the problem of anticipating future dynamics,
particularly the future location of other vehicles and pedestrians, in the view
of a moving vehicle. We approach two fundamental challenges: (1) the partial
visibility due to the egocentric view with a single RGB camera and considerable
field-of-view change due to the egomotion of the vehicle; (2) the multimodality
of the distribution of future states. In contrast to many previous works, we do
not assume structural knowledge from maps. We rather estimate a reachability
prior for certain classes of objects from the semantic map of the present image
and propagate it into the future using the planned egomotion. Experiments show
that the reachability prior combined with multi-hypotheses learning improves
multimodal prediction of the future location of tracked objects and, for the
first time, the emergence of new objects. We also demonstrate promising
zero-shot transfer to unseen datasets. Source code is available at
$\href{https://github.com/lmb-freiburg/FLN-EPN-RPN}{\text{this https URL.}}$
- Abstract(参考訳): 本稿では,移動車の観点から,将来の動態,特に他の車両や歩行者の将来の位置を予想する問題について検討する。
我々は,1)1台のRGBカメラによる自我中心の視界による部分視認性,2)車両の移動による視野の変化,2)将来の状態の分布の多様性,という2つの基本的な課題にアプローチする。
多くの先行研究とは対照的に、我々は地図からの構造的知識を仮定しない。
むしろ、現在の画像のセマンティックマップから対象の特定のクラスに先立って到達可能性を推定し、計画されたエゴモーションを用いて未来に伝播する。
実験により, 複数仮説学習と組み合わせた到達性により, 追跡対象の将来の位置のマルチモーダル予測が向上し, 新たな対象が出現した。
また、目に見えないデータセットへのゼロショット転送を約束します。
ソースコードは $\href{https://github.com/lmb-freiburg/FLN-EPN-RPN}{\text{this https URLで入手できる。
}}$
関連論文リスト
- Seeing the Future, Perceiving the Future: A Unified Driving World Model for Future Generation and Perception [47.65526944865586]
将来的なシーン生成と認識をシームレスに単一のフレームワークに統合する,運転世界モデルUniFutureを提案する。
我々のアプローチは、将来の外観(すなわちRGB画像)と幾何学(すなわち深さ)を共同でモデル化し、コヒーレントな予測を保証する。
論文 参考訳(メタデータ) (2025-03-17T17:59:50Z) - Multi-Vehicle Trajectory Prediction at Intersections using State and
Intention Information [50.40632021583213]
道路員の将来の軌跡予測への伝統的なアプローチは、過去の軌跡を知ることに依存している。
この研究は、交差点で複数の車両の予測を行うために、現在の状態と意図された方向を知ることに依存する。
この情報を車両間で送るメッセージは、それぞれがより総合的な環境概要を提供する。
論文 参考訳(メタデータ) (2023-01-06T15:13:23Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z) - Learning Future Object Prediction with a Spatiotemporal Detection
Transformer [1.1543275835002982]
我々は、未来のオブジェクトを直接出力するように検出変換器を訓練する。
既存のトランスフォーマーを2つの方法で拡張し、シーンダイナミクスをキャプチャします。
我々の最終アプローチは、力学を捉えることを学び、100ミリ秒の予測地平線をオラクルと同等に予測する。
論文 参考訳(メタデータ) (2022-04-21T17:58:36Z) - Vision-Guided Forecasting -- Visual Context for Multi-Horizon Time
Series Forecasting [0.6947442090579469]
2つのモードを融合させて車両状態のマルチ水平予測に取り組む。
我々は,視覚的特徴抽出のための3次元畳み込みと,速度と操舵角度トレースからの特徴抽出のための1次元畳み込みの設計と実験を行った。
我々は,車両の状態を様々な地平線に予測でき,運転状態推定のタスクにおいて,現在の最先端結果よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-27T08:52:40Z) - FIERY: Future Instance Prediction in Bird's-Eye View from Surround
Monocular Cameras [33.08698074581615]
単眼カメラによる鳥眼視における確率論的未来予測モデルFIERYを提案する。
我々のアプローチは、従来の自律運転スタックの知覚、センサー融合、予測コンポーネントを組み合わせています。
当社のモデルは,NuScenesとLyftのデータセットに基づく予測ベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-04-21T12:21:40Z) - Learning to Anticipate Egocentric Actions by Imagination [60.21323541219304]
我々は,エゴセントリックなアクション予測タスクについて検討し,エゴセントリックなビデオの再生に先立って,将来のアクション秒を予測する。
本手法は, EPIC Kitchens Action Precipation Challenge の既視テストセットと未確認テストセットの両方において, 従来手法を有意に上回った。
論文 参考訳(メタデータ) (2021-01-13T08:04:10Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。