論文の概要: JointMotion: Joint Self-supervision for Joint Motion Prediction
- arxiv url: http://arxiv.org/abs/2403.05489v1
- Date: Fri, 8 Mar 2024 17:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 12:56:12.448734
- Title: JointMotion: Joint Self-supervision for Joint Motion Prediction
- Title(参考訳): Joint Motion: 関節運動予測のためのジョイント・セルフ・スーパービジョン
- Authors: Royden Wagner, \"Omer \c{S}ahin Ta\c{s}, Marvin Klemp, Carlos
Fernandez
- Abstract要約: 自律運転における関節運動予測のための自己教師型学習手法であるJointMotionを提案する。
提案手法は,動作と環境を接続するシーンレベルの目的と,学習した表現を洗練するためのインスタンスレベルの目的を含む。
以上の結果から,これらの目的は協調動作予測のための事前学習として,近年のコントラスト・オートエンコーディング手法の相補的かつ優れたものであることが明らかとなった。
- 参考スコア(独自算出の注目度): 11.209594045884064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present JointMotion, a self-supervised learning method for joint motion
prediction in autonomous driving. Our method includes a scene-level objective
connecting motion and environments, and an instance-level objective to refine
learned representations. Our evaluations show that these objectives are
complementary and outperform recent contrastive and autoencoding methods as
pre-training for joint motion prediction. Furthermore, JointMotion adapts to
all common types of environment representations used for motion prediction
(i.e., agent-centric, scene-centric, and pairwise relative), and enables
effective transfer learning between the Waymo Open Motion and the Argoverse 2
Forecasting datasets. Notably, our method improves the joint final displacement
error of Wayformer, Scene Transformer, and HPTR by 3%, 7%, and 11%,
respectively.
- Abstract(参考訳): 自動運転における関節運動予測のための自己教師型学習手法であるJointMotionを提案する。
本手法は,動作と環境を接続するシーンレベルの目標と,学習表現を洗練するためのインスタンスレベルの目標を含む。
提案手法は, 関節運動予測のための事前学習法として, 最近のコントラスト・オートエンコーディング法を補完し, 補完的に評価した。
さらに、ジョイントモーションは、動き予測に用いられる一般的な環境表現(エージェント中心、シーン中心、ペア回り相対など)に適応し、waymoオープンモーションとargoverse 2予測データセットとの効果的な転送学習を可能にする。
特に,Wayformer,Scene Transformer,HPTRの最終的な変位誤差を3%,7%,HPTRは11%改善した。
関連論文リスト
- SSL-Interactions: Pretext Tasks for Interactive Trajectory Prediction [4.817322497343503]
トラジェクティブ予測のためのインタラクションモデリングを強化するために,プリテキストタスクを提案するSSL-Interactionsを提案する。
エージェントインタラクションの様々な側面をカプセル化する4つの対話対応プレテキストタスクを導入する。
また,データセットからインタラクション重大シナリオをキュレートする手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:43:40Z) - Joint-Relation Transformer for Multi-Person Motion Prediction [79.08243886832601]
相互作用モデリングの強化を目的とした結合関係変換器を提案する。
提案手法は3DPW-SoMoF/RCで900ms VIMを13.4%改善し, 3s MPJPEで17.8%/12.0%改善した。
論文 参考訳(メタデータ) (2023-08-09T09:02:47Z) - Motion-Scenario Decoupling for Rat-Aware Video Position Prediction:
Strategy and Benchmark [49.58762201363483]
本研究では,個人や環境の影響要因を考慮し,生物ロボットの動き予測データセットであるRatPoseを紹介する。
本稿では,シナリオ指向とモーション指向を効果的に分離するDual-stream Motion-Scenario Decouplingフレームワークを提案する。
難易度が異なるタスクに対して,提案したtextitDMSD フレームワークの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-05-17T14:14:31Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Pose And Joint-Aware Action Recognition [87.4780883700755]
本稿では,まず,共有動作エンコーダを用いて各関節の動作特徴を別々に抽出する,関節に基づく動作認識の新しいモデルを提案する。
私たちのジョイントセレクタモジュールは、そのタスクの最も識別性の高いジョイントを選択するために、ジョイント情報を再重み付けします。
JHMDB, HMDB, Charades, AVA アクション認識データセットにおける最先端のジョイントベースアプローチに対する大きな改善点を示す。
論文 参考訳(メタデータ) (2020-10-16T04:43:34Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - CoMoGCN: Coherent Motion Aware Trajectory Prediction with Graph
Representation [12.580809204729583]
グループ制約のある混雑したシーンにおける軌道予測のための,コヒーレントな動き認識グラフ畳み込みネットワーク(CoMoGCN)を提案する。
提案手法は,複数のトラジェクトリ予測ベンチマーク上での最先端性能と,検討したすべてのベンチマークの中で最高の平均性能を実現する。
論文 参考訳(メタデータ) (2020-05-02T09:10:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。