論文の概要: Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking
- arxiv url: http://arxiv.org/abs/2304.01672v1
- Date: Tue, 4 Apr 2023 09:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:16:21.945646
- Title: Motion-R3: Fast and Accurate Motion Annotation via Representation-based
Representativeness Ranking
- Title(参考訳): motion-r3:representation-based representativeness rankingによる高速かつ正確なモーションアノテーション
- Authors: Jubo Yu, Tianxiang Ren, Shihui Guo, Fengyi Fang, Kai Wang, Zijiao
Zeng, Yazhan Zhang, Andreas Aristidou, Yipeng Qin
- Abstract要約: 与えられたデータセットにおける動きデータ固有の代表性に基づく新しい動きアノテーション手法を提案する。
その高い効率のおかげで、我々の手法は特に頻繁な要求の変化に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
- 参考スコア(独自算出の注目度): 12.780640149625743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we follow a data-centric philosophy and propose a novel motion
annotation method based on the inherent representativeness of motion data in a
given dataset. Specifically, we propose a Representation-based
Representativeness Ranking R3 method that ranks all motion data in a given
dataset according to their representativeness in a learned motion
representation space. We further propose a novel dual-level motion constrastive
learning method to learn the motion representation space in a more informative
way. Thanks to its high efficiency, our method is particularly responsive to
frequent requirements change and enables agile development of motion annotation
models. Experimental results on the HDM05 dataset against state-of-the-art
methods demonstrate the superiority of our method.
- Abstract(参考訳): 本稿では,データ中心の哲学に従い,与えられたデータセットにおける動きデータの固有表現性に基づく新しい動きアノテーション手法を提案する。
具体的には,学習した動き表現空間において,与えられたデータセット内のすべての動きデータをその代表性に応じてランク付けする表現ベース代表度ランキングr3法を提案する。
さらに,より有意義な方法で運動表現空間を学習するための,新しい2レベル運動連続学習法を提案する。
高効率のおかげで、この手法は要求の頻繁な変更に特に反応し、モーションアノテーションモデルのアジャイル開発を可能にします。
HDM05データセットの最先端手法に対する実験結果から,本手法の優位性が確認された。
関連論文リスト
- DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - SemanticBoost: Elevating Motion Generation with Augmented Textual Cues [73.83255805408126]
我々のフレームワークはセマンティック・エンハンスメント・モジュールとコンテキスト調整型モーション・デノイザ(CAMD)から構成されている。
CAMDアプローチは、高品質でセマンティックに一貫性のあるモーションシーケンスを生成するための全エンコンパスソリューションを提供する。
実験の結果,SemanticBoostは拡散法として自己回帰法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-31T09:58:11Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Motion Capture Dataset for Practical Use of AI-based Motion Editing and
Stylization [1.3999481573773074]
そこで我々は,動きスタイル伝達領域のための新しいスタイル多様性データセットを提案する。
運動データセットは産業標準のヒト骨構造を使用する。
我々は,最先端技術を用いた実験において,動作スタイルの伝達に関する包括的な研究を行う。
論文 参考訳(メタデータ) (2023-06-15T05:12:54Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - ReMoDiffuse: Retrieval-Augmented Motion Diffusion Model [33.64263969970544]
3Dのモーション生成はクリエイティブ産業にとって不可欠だ。
近年の進歩は、テキスト駆動モーション生成のためのドメイン知識を持つ生成モデルに依存している。
本稿では拡散モデルに基づく動き生成フレームワークReMoDiffuseを提案する。
論文 参考訳(メタデータ) (2023-04-03T16:29:00Z) - Mutual Information-Based Temporal Difference Learning for Human Pose
Estimation in Video [16.32910684198013]
本稿では,動的コンテキストをモデル化するために,フレーム間の時間差を利用した新しいヒューマンポーズ推定フレームワークを提案する。
具体的には、多段階差分を条件とした多段階絡み合い学習シーケンスを設計し、情報的動作表現シーケンスを導出する。
以下は、HiEveベンチマークで、複合イベントチャレンジにおけるクラウドポーズ推定において、第1位にランク付けします。
論文 参考訳(メタデータ) (2023-03-15T09:29:03Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Moving fast and slow: Analysis of representations and post-processing in
speech-driven automatic gesture generation [7.6857153840014165]
我々は,表現学習を取り入れた音声によるジェスチャー生成のための,近年のディープラーニングに基づくデータ駆動手法を拡張した。
我々のモデルは音声を入力とし、3次元座標列の形式でジェスチャーを出力として生成する。
自動ジェスチャー生成法の設計において,動作表現と後処理の両方を考慮に入れることが重要であると結論付けた。
論文 参考訳(メタデータ) (2020-07-16T07:32:00Z) - Explaining Motion Relevance for Activity Recognition in Video Deep
Learning Models [12.807049446839507]
動作認識タスクにおける3次元畳み込みニューラルネットワークモデルの解釈可能性に、説明可能性技術の小さなサブセットが適用されている。
本研究では,2次元説明手法を応用し,動作特異的な説明を提供するための選択的関連性手法を提案する。
提案手法は,モデル決定における動作が果たす役割についての洞察を与えるだけでなく,モデルの空間的偏見を明らかにし,定量化することで,人間の消費に関する説明を単純化する。
論文 参考訳(メタデータ) (2020-03-31T15:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。