論文の概要: Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking
- arxiv url: http://arxiv.org/abs/2304.01672v1
- Date: Tue, 4 Apr 2023 09:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:16:21.945646
- Title: Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking
- Title(参考訳): motion-r3:representation-based representativeness rankingによる高速かつ正確なモーションアノテーション
- Authors: Jubo Yu, Tianxiang Ren, Shihui Guo, Fengyi Fang, Kai Wang, Zijiao
Zeng, Yazhan Zhang, Andreas Aristidou, Yipeng Qin
- Abstract要約: 与えられたデータセットにおける動きデータ固有の代表性に基づく新しい動きアノテーション手法を提案する。
その高い効率のおかげで、我々の手法は特に頻繁な要求の変化に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
- 参考スコア(独自算出の注目度): 12.780640149625743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we follow a data-centric philosophy and propose a novel motion
annotation method based on the inherent representativeness of motion data in a
given dataset. Specifically, we propose a Representation-based
Representativeness Ranking R3 method that ranks all motion data in a given
dataset according to their representativeness in a learned motion
representation space. We further propose a novel dual-level motion constrastive
learning method to learn the motion representation space in a more informative
way. Thanks to its high efficiency, our method is particularly responsive to
frequent requirements change and enables agile development of motion annotation
models. Experimental results on the HDM05 dataset against state-of-the-art
methods demonstrate the superiority of our method.
- Abstract(参考訳): 本稿では,データ中心の哲学に従い,与えられたデータセットにおける動きデータの固有表現性に基づく新しい動きアノテーション手法を提案する。
具体的には,学習した動き表現空間において,与えられたデータセット内のすべての動きデータをその代表性に応じてランク付けする表現ベース代表度ランキングr3法を提案する。
さらに,より有意義な方法で運動表現空間を学習するための,新しい2レベル運動連続学習法を提案する。
高効率のおかげで、この手法は要求の頻繁な変更に特に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
HDM05データセットの最先端手法に対する実験結果から,本手法の優位性が確認された。
関連論文リスト
- Quo Vadis, Motion Generation? From Large Language Models to Large Motion Models [70.78051873517285]
我々は、最初の100万レベルのモーション生成ベンチマークであるMotionBaseを紹介する。
この膨大なデータセットを活用することで、我々の大きな動きモデルは幅広い動きに対して強いパフォーマンスを示す。
動作情報を保存し,コードブックの容量を拡大する,モーショントークン化のための新しい2次元ルックアップフリーアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T10:48:54Z) - MotionFix: Text-Driven 3D Human Motion Editing [52.11745508960547]
主な課題は、トレーニングデータの不足と、ソースの動きを正確に編集するモデルの設計である。
本研究では, (i) 震源運動, (ii) 目標運動, (iii) 編集テキストからなる三つ組のデータセットを半自動で収集する手法を提案する。
このデータにアクセスすると、ソースモーションと編集テキストの両方を入力として取り込む条件拡散モデルTMEDをトレーニングできます。
論文 参考訳(メタデータ) (2024-08-01T16:58:50Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization [1.3999481573773074]
そこで我々は,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
運動データセットは産業標準のヒト骨構造を使用する。
我々は,最先端技術を用いた実験において,動作スタイルの伝達に関する包括的な研究を行う。
論文 参考訳(メタデータ) (2023-06-15T05:12:54Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model [33.64263969970544]
3Dのモーション生成はクリエイティブ産業にとって不可欠だ。
近年の進歩は、テキスト駆動モーション生成のためのドメイン知識を持つ生成モデルに依存している。
本稿では拡散モデルに基づく動き生成フレームワークReMoDiffuseを提案する。
論文 参考訳(メタデータ) (2023-04-03T16:29:00Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Explaining Motion Relevance for Activity Recognition in Video Deep
Learning Models [12.807049446839507]
動作認識タスクにおける3次元畳み込みニューラルネットワークモデルの解釈可能性に、説明可能性技術の小さなサブセットが適用されている。
本研究では,2次元説明手法を応用し,動作特異的な説明を提供するための選択的関連性手法を提案する。
提案手法は,モデル決定における動作が果たす役割についての洞察を与えるだけでなく,モデルの空間的偏見を明らかにし,定量化することで,人間の消費に関する説明を単純化する。
論文 参考訳(メタデータ) (2020-03-31T15:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。