論文の概要: Attention Augmented ConvLSTM for Environment Prediction
- arxiv url: http://arxiv.org/abs/2010.09662v3
- Date: Fri, 10 Sep 2021 19:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:09:38.390642
- Title: Attention Augmented ConvLSTM for Environment Prediction
- Title(参考訳): 環境予測のための注意強化convlstm
- Authors: Bernard Lange, Masha Itkina and Mykel J. Kochenderfer
- Abstract要約: 以前使用されていたConvLSTMベースのフレームワークは、移動オブジェクトの著しい曖昧化と消滅を招き、安全クリティカルなアプリケーションでの使用を妨げている。
本稿では,予測のためのTAAvLSTM(Temporal Attention Augmented ConvLSTM)とSelf-Atmented ConvLSTM(Self-Atmented ConvLSTM)を提案し,ベースラインアーキテクチャよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 42.99955259272639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe and proactive planning in robotic systems generally requires accurate
predictions of the environment. Prior work on environment prediction applied
video frame prediction techniques to bird's-eye view environment
representations, such as occupancy grids. ConvLSTM-based frameworks used
previously often result in significant blurring and vanishing of moving
objects, thus hindering their applicability for use in safety-critical
applications. In this work, we propose two extensions to the ConvLSTM to
address these issues. We present the Temporal Attention Augmented ConvLSTM
(TAAConvLSTM) and Self-Attention Augmented ConvLSTM (SAAConvLSTM) frameworks
for spatiotemporal occupancy prediction, and demonstrate improved performance
over baseline architectures on the real-world KITTI and Waymo datasets.
- Abstract(参考訳): ロボットシステムにおける安全で積極的な計画には、環境の正確な予測が必要である。
環境予測に関する先行研究は,鳥の目視環境表現に映像フレーム予測技術を適用した。
以前はConvLSTMベースのフレームワークを使用していたため、移動オブジェクトの大きなぼやけや消滅が生じ、安全クリティカルなアプリケーションでの使用が妨げられる。
本研究では,これらの問題に対処するため,ConvLSTMの2つの拡張を提案する。
本稿では,時空間占有予測のためのTAAConvLSTMと自己注意Augmented ConvLSTM(SAAConvLSTM)フレームワークを提案する。
関連論文リスト
- Self-supervised Multi-future Occupancy Forecasting for Autonomous Driving [45.886941596233974]
LiDARで生成された占有グリッドマップ(L-OGM)は、シーン表現のための頑丈な鳥眼ビューを提供する。
提案するフレームワークは、生成アーキテクチャの潜在空間においてL-OGM予測を行う。
我々は、リアルタイムに高品質な予測を提供するシングルステップデコーダまたは拡散ベースのバッチデコーダを用いて予測をデコードする。
論文 参考訳(メタデータ) (2024-07-30T18:37:59Z) - Analysis of the Memorization and Generalization Capabilities of AI
Agents: Are Continual Learners Robust? [91.682459306359]
連続学習(CL)では、AIエージェントが動的環境下で非定常データストリームから学習する。
本稿では,過去の知識を維持しつつ,動的環境への堅牢な一般化を実現するための新しいCLフレームワークを提案する。
提案フレームワークの一般化と記憶性能を理論的に解析した。
論文 参考訳(メタデータ) (2023-09-18T21:00:01Z) - Vehicle Motion Forecasting using Prior Information and Semantic-assisted
Occupancy Grid Maps [6.99274104609965]
運動は、センサーデータの不確実性、未来の非決定論的性質、複雑な振る舞いによって、自動運転車にとって困難なタスクである。
本稿では,シーンを動的占有グリッドマップ(DOGM)として表現することで,この問題に対処する。
本研究では,車両の挙動を予測するための時間的および確率的アプローチを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-08T14:49:44Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Dynamics-Aware Spatiotemporal Occupancy Prediction in Urban Environments [37.00873004170998]
本稿では,ディープネットワークアーキテクチャを用いて2つの機能を統合するフレームワークを提案する。
本手法は実世界のOpenデータセット上で検証され,ベースライン法よりも高い予測精度を示す。
論文 参考訳(メタデータ) (2022-09-27T06:12:34Z) - Conditioned Human Trajectory Prediction using Iterative Attention Blocks [70.36888514074022]
本研究では,都市環境における歩行者位置予測を目的とした,簡易かつ効果的な歩行者軌道予測モデルを提案する。
我々のモデルは、複数のアテンションブロックとトランスフォーマーを反復的に実行できるニューラルネットワークアーキテクチャである。
ソーシャルマスク, 動的モデル, ソーシャルプーリング層, 複雑なグラフのような構造を明示的に導入することなく, SoTAモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T07:49:48Z) - Predicting Future Occupancy Grids in Dynamic Environment with
Spatio-Temporal Learning [63.25627328308978]
本稿では,将来の占有予測を生成するための時間的予測ネットワークパイプラインを提案する。
現在のSOTAと比較して、我々の手法は3秒の長い水平線での占有を予測している。
我々は、さらなる研究を支援するために、nulisに基づくグリッド占有データセットを公開します。
論文 参考訳(メタデータ) (2022-05-06T13:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。