論文の概要: Collaborative Motion Prediction via Neural Motion Message Passing
- arxiv url: http://arxiv.org/abs/2003.06594v1
- Date: Sat, 14 Mar 2020 10:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:21:01.377122
- Title: Collaborative Motion Prediction via Neural Motion Message Passing
- Title(参考訳): ニューラルモーションメッセージパッシングによる協調動作予測
- Authors: Yue Hu, Siheng Chen, Ya Zhang, and Xiao Gu
- Abstract要約: 我々は,アクター間の対話を明示的にモデル化し,アクター間の対話の表現を学習するために,ニューラルモーションメッセージパッシング(NMMP)を提案する。
提案したNMMPに基づいて,歩行者設定と共同歩行者設定と車両設定の2つの設定に対して,動作予測システムを設計する。
どちらのシステムも、既存のベンチマークで過去の最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 37.72454920355321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion prediction is essential and challenging for autonomous vehicles and
social robots. One challenge of motion prediction is to model the interaction
among traffic actors, which could cooperate with each other to avoid collisions
or form groups. To address this challenge, we propose neural motion message
passing (NMMP) to explicitly model the interaction and learn representations
for directed interactions between actors. Based on the proposed NMMP, we design
the motion prediction systems for two settings: the pedestrian setting and the
joint pedestrian and vehicle setting. Both systems share a common pattern: we
use an individual branch to model the behavior of a single actor and an
interactive branch to model the interaction between actors, while with
different wrappers to handle the varied input formats and characteristics. The
experimental results show that both systems outperform the previous
state-of-the-art methods on several existing benchmarks. Besides, we provide
interpretability for interaction learning.
- Abstract(参考訳): 運動予測は自動運転車や社会ロボットにとって不可欠で難しい。
動き予測の1つの課題は、衝突や集団形成を避けるために互いに協力できる交通機関間の相互作用をモデル化することである。
この課題に対処するために、アクター間の対話を明示的にモデル化し、アクター間の対話の表現を学習するために、ニューラルモーションメッセージパッシング(NMMP)を提案する。
提案したNMMPに基づいて,歩行者設定と共同歩行者設定と車両設定の2つの設定に対して,動作予測システムを設計する。
どちらのシステムも共通のパターンを共有しており、ひとつのアクターの振る舞いをモデル化するために個々のブランチと、アクター間の相互作用をモデル化するために対話的なブランチを使用します。
実験の結果,既存のベンチマークでは,両システムともに従来の最先端手法を上回っていることがわかった。
さらに,インタラクション学習の解釈可能性も提供する。
関連論文リスト
- Versatile Motion Language Models for Multi-Turn Interactive Agents [28.736843383405603]
本稿では,言語と運動の両モードを統合したVersatile Interactive Motion言語モデルを提案する。
動作関連タスク,テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・テキスト・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声・音声
論文 参考訳(メタデータ) (2024-10-08T02:23:53Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - PedFormer: Pedestrian Behavior Prediction via Cross-Modal Attention
Modulation and Gated Multitask Learning [10.812772606528172]
本研究では,エゴ中心の視点から,歩行者の将来の軌跡や横断行動を予測するために,異なるデータモダリティに依存する新しい枠組みを提案する。
本モデルでは, トラジェクトリとアクション予測の精度を, それぞれ22%, 13%向上した。
論文 参考訳(メタデータ) (2022-10-14T15:12:00Z) - SoMoFormer: Social-Aware Motion Transformer for Multi-Person Motion
Prediction [10.496276090281825]
本稿では,ソーシャル・アウェア・モーション・トランスフォーマー(SoMoFormer)を提案する。
SoMoFormerは、変位軌道空間のサブシーケンスから運動特徴を抽出し、各個人に対する局所的およびグローバルなポーズダイナミクスを学習する。
さらに,SoMoFormerに新たなソーシャル・アウェア・アテンション・アテンション・メカニズムを考案し,動的表現をさらに最適化し,相互依存を同時に捉える。
論文 参考訳(メタデータ) (2022-08-19T08:57:34Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - Bidirectional Interaction between Visual and Motor Generative Models
using Predictive Coding and Active Inference [68.8204255655161]
本稿では,感覚予測のための生成モデルと,運動軌跡の生成モデルからなるニューラルアーキテクチャを提案する。
我々は,知覚予測のシーケンスが学習,制御,オンライン適応を導くレールとしてどのように機能するかを強調する。
論文 参考訳(メタデータ) (2021-04-19T09:41:31Z) - Pedestrian Behavior Prediction via Multitask Learning and Categorical
Interaction Modeling [13.936894582450734]
マルチモーダルデータに頼って歩行者の軌跡や行動を同時に予測するマルチタスク学習フレームワークを提案する。
本モデルでは, トラジェクティブと動作予測を最大22%, 6%向上させる。
論文 参考訳(メタデータ) (2020-12-06T15:57:11Z) - Interaction-Based Trajectory Prediction Over a Hybrid Traffic Graph [4.574413934477815]
本稿では,トラフィックアクタと静的および動的トラフィック要素の両方をノードが表現するハイブリッドグラフを提案する。
アクターとトラフィック要素間の時間的相互作用(例えば、停止と移動)の異なるモードは、グラフエッジによって明示的にモデル化される。
提案するモデルであるTrafficGraphNetは,高いレベルの解釈性を維持しつつ,最先端の軌道予測精度を実現する。
論文 参考訳(メタデータ) (2020-09-27T18:20:03Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。