論文の概要: MGTR: Multi-Granular Transformer for Motion Prediction with LiDAR
- arxiv url: http://arxiv.org/abs/2312.02409v2
- Date: Mon, 5 Feb 2024 19:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 19:39:50.876802
- Title: MGTR: Multi-Granular Transformer for Motion Prediction with LiDAR
- Title(参考訳): MGTR:LiDARを用いた動き予測用多角形変圧器
- Authors: Yiqian Gan, Hao Xiao, Yizhe Zhao, Ethan Zhang, Zhe Huang, Xin Ye,
Lingting Ge
- Abstract要約: 我々は,異なる種類のトラフィックエージェントに対して,異なる粒度のコンテキスト特徴を利用するエンコーダデコーダネットワークであるMulti-Granular TRansformer (MGTR) フレームワークを提案する。
我々は,オープンデータセットの動作予測ベンチマーク上でMGTRを評価し,提案手法が最先端のパフォーマンスを達成し,リーダボードで1位となったことを示す。
- 参考スコア(独自算出の注目度): 7.135065870025928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion prediction has been an essential component of autonomous driving
systems since it handles highly uncertain and complex scenarios involving
moving agents of different types. In this paper, we propose a Multi-Granular
TRansformer (MGTR) framework, an encoder-decoder network that exploits context
features in different granularities for different kinds of traffic agents. To
further enhance MGTR's capabilities, we leverage LiDAR point cloud data by
incorporating LiDAR semantic features from an off-the-shelf LiDAR feature
extractor. We evaluate MGTR on Waymo Open Dataset motion prediction benchmark
and show that the proposed method achieved state-of-the-art performance,
ranking 1st on its leaderboard
(https://waymo.com/open/challenges/2023/motion-prediction/).
- Abstract(参考訳): 動き予測は、異なる種類の移動エージェントを含む非常に不確実で複雑なシナリオを扱うため、自動運転システムにおいて不可欠な要素である。
本稿では,多言語TRansformer(MGTR)フレームワークを提案する。これは,異なる種類のトラフィックエージェントに対して,異なる粒度のコンテキスト特徴を利用するエンコーダデコーダネットワークである。
MGTRの機能をさらに強化するために,既製のLiDAR特徴抽出器からLiDAR意味機能を組み込むことで,LiDARポイントクラウドデータを活用する。
waymo open dataset motion prediction benchmark 上で mgtr を評価し,提案手法が最先端性能を達成し,そのリーダボードでは1位となった(https://waymo.com/open/challenges/2023/motion-prediction/)。
関連論文リスト
- SFPNet: Sparse Focal Point Network for Semantic Segmentation on General LiDAR Point Clouds [13.097858142421519]
本稿では、ウィンドウアテンションをスパース焦点変調に置き換えることで、市場で広く普及している様々なLiDARに対応するためのフレームワークを提案する。
我々のSFPNetは、複数のレベルのコンテキストを抽出し、ゲート機構を用いて動的に集約することができる。
また,ロボットアプリケーションのための大規模ハイブリッド型LiDARセマンティックセマンティックセマンティックセマンティックデータセットについても紹介する。
論文 参考訳(メタデータ) (2024-07-16T10:22:09Z) - iMotion-LLM: Motion Prediction Instruction Tuning [33.63656257401926]
iMotion-LLM: 対話型マルチエージェントシナリオのガイドに適したトラジェクティブ予測付きマルチモーダル大規模言語モデルを提案する。
iMotion-LLMは、コンテキストに関連のあるトラジェクトリを生成するキー入力としてテキスト命令を利用する。
これらの発見は、自律ナビゲーションシステムによるマルチエージェント環境のダイナミクスの解釈と予測を可能にするマイルストーンとして機能する。
論文 参考訳(メタデータ) (2024-06-10T12:22:06Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - WOMD-LiDAR: Raw Sensor Dataset Benchmark for Motion Forecasting [38.95768804529958]
動作予測タスクのための大規模で高品質な多種多様なLiDARデータを用いて,Open Motionデータセットを拡張した。
新しいデータセットWOMD-LiDARは10万枚以上のシーンで構成され、それぞれ20秒にまたがる。
実験の結果,LiDARデータは動き予測タスクの改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2023-04-07T20:23:15Z) - Traj-MAE: Masked Autoencoders for Trajectory Prediction [69.7885837428344]
軌道予測は、危険を予測して信頼性の高い自動運転システムを構築する上で重要な課題である。
本稿では,運転環境におけるエージェントの複雑な動作をよりよく表現する,軌道予測のための効率的なマスク付きオートエンコーダを提案する。
複数エージェント設定と単一エージェント設定の両方の実験結果から,Traj-MAEが最先端手法と競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-12T16:23:27Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Shared Cross-Modal Trajectory Prediction for Autonomous Driving [24.07872495811019]
本稿では,複数入力モダリティの利用のメリットを活かしたクロスモーダルな埋め込みフレームワークを提案する。
2つのベンチマーク駆動データセットを用いて,提案手法の有効性を示すため,広範囲な評価を行った。
論文 参考訳(メタデータ) (2020-11-15T07:18:50Z) - Shared Cross-Modal Trajectory Prediction for Autonomous Driving [24.07872495811019]
本稿では,複数入力モダリティの利用のメリットを活かしたクロスモーダルな埋め込みフレームワークを提案する。
2つのベンチマーク駆動データセットを用いて,提案手法の有効性を示すため,広範囲な評価を行った。
論文 参考訳(メタデータ) (2020-04-01T02:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。