論文の概要: StableMotion: Training Motion Cleanup Models with Unpaired Corrupted Data
- arxiv url: http://arxiv.org/abs/2505.03154v1
- Date: Tue, 06 May 2025 04:02:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.195755
- Title: StableMotion: Training Motion Cleanup Models with Unpaired Corrupted Data
- Title(参考訳): StableMotion: 故障したデータによる運動クリーンアップモデルのトレーニング
- Authors: Yuxuan Mu, Hung Yu Ling, Yi Shi, Ismael Baira Ojeda, Pengcheng Xi, Chang Shu, Fabio Zinno, Xue Bin Peng,
- Abstract要約: モーションキャプチャー(モキャップ)データは、しばしば不正確なセンサーや後処理のために視覚的にジャリングされたアーティファクトを示す。
従来のデータ駆動型モーションクリーニング手法では、ペアの破損したクリーンなトレーニングデータが必要である。
我々は、不正な破損したデータセットから直接、動作のクリーンアップモデルをトレーニングするための、シンプルで効果的な方法であるStableMotionを提案する。
- 参考スコア(独自算出の注目度): 11.03259576479576
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Motion capture (mocap) data often exhibits visually jarring artifacts due to inaccurate sensors and post-processing. Cleaning this corrupted data can require substantial manual effort from human experts, which can be a costly and time-consuming process. Previous data-driven motion cleanup methods offer the promise of automating this cleanup process, but often require in-domain paired corrupted-to-clean training data. Constructing such paired datasets requires access to high-quality, relatively artifact-free motion clips, which often necessitates laborious manual cleanup. In this work, we present StableMotion, a simple yet effective method for training motion cleanup models directly from unpaired corrupted datasets that need cleanup. The core component of our method is the introduction of motion quality indicators, which can be easily annotated through manual labeling or heuristic algorithms and enable training of quality-aware motion generation models on raw motion data with mixed quality. At test time, the model can be prompted to generate high-quality motions using the quality indicators. Our method can be implemented through a simple diffusion-based framework, leading to a unified motion generate-discriminate model, which can be used to both identify and fix corrupted frames. We demonstrate that our proposed method is effective for training motion cleanup models on raw mocap data in production scenarios by applying StableMotion to SoccerMocap, a 245-hour soccer mocap dataset containing real-world motion artifacts. The trained model effectively corrects a wide range of motion artifacts, reducing motion pops and frozen frames by 68% and 81%, respectively. See https://youtu.be/3Y7MMAH02B4 for more results.
- Abstract(参考訳): モーションキャプチャー(モキャップ)データは、しばしば不正確なセンサーや後処理のために視覚的にジャリングされたアーティファクトを示す。
この破損したデータのクリーニングには、人手による相当な手作業が必要になる可能性がある。
従来のデータ駆動型モーションクリーンアップ手法は、このクリーンアッププロセスを自動化するという約束を提供するが、しばしばドメイン内のペアの破損したクリーンなトレーニングデータを必要とする。
このようなペア化されたデータセットを構築するには、高品質で比較的アーティファクトのないモーションクリップへのアクセスが必要である。
本研究では,クリーンアップが必要な不正なデータセットから直接,動作のクリーンアップモデルをトレーニングする,シンプルで効果的な方法であるStableMotionを紹介する。
提案手法のコアコンポーネントは,手動ラベリングやヒューリスティックアルゴリズムによって容易に注釈付け可能な動作品質指標の導入である。
テスト時には、モデルに品質指標を用いて高品質な動作を生成するよう促すことができる。
提案手法は, 単純な拡散に基づくフレームワークを用いて実装可能であり, 統合された動き生成識別モデルにより, 破損したフレームの識別と修正が可能である。
提案手法は,実世界のモーションアーティファクトを含む245時間サッカーモキャップデータセットであるFocoMocapにStableMotionを適用することにより,実運用シナリオにおけるモキャップデータに基づくモーションクリーニングモデルのトレーニングに有効であることを示す。
トレーニングされたモデルは、広範囲のモーションアーティファクトを効果的に修正し、モーションポップとフリーズフレームをそれぞれ68%と81%削減する。
詳細はhttps://youtu.be/3Y7MMAH02B4を参照。
関連論文リスト
- Image as an IMU: Estimating Camera Motion from a Single Motion-Blurred Image [14.485182089870928]
本研究では,動きのぼかしを動き推定のためのリッチキューとして活用する新しいフレームワークを提案する。
提案手法は, 単一動画像から直接, 濃密な運動流場と単眼深度マップを推定することにより機能する。
本手法は,高速でアグレッシブなカメラの動きを強く捉えるIMUライクな計測法である。
論文 参考訳(メタデータ) (2025-03-21T17:58:56Z) - MotionFix: Text-Driven 3D Human Motion Editing [52.11745508960547]
主な課題は、トレーニングデータの不足と、ソースの動きを正確に編集するモデルの設計である。
本研究では, (i) 震源運動, (ii) 目標運動, (iii) 編集テキストからなる三つ組のデータセットを半自動で収集する手法を提案する。
このデータにアクセスすると、ソースモーションと編集テキストの両方を入力として取り込む条件拡散モデルTMEDをトレーニングできます。
論文 参考訳(メタデータ) (2024-08-01T16:58:50Z) - Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction [37.41561581618164]
モーションアーティファクトリダクションは、MRイメージングにおいて重要な研究トピックの1つである。
我々はMRIの動作アーチファクト低減のためのアニール式スコアベース拡散モデルを提案する。
実験により, 提案手法は, シミュレーションおよび生体内動作アーティファクトの両方を効果的に低減することを確認した。
論文 参考訳(メタデータ) (2023-01-08T12:16:08Z) - Render In-between: Motion Guided Video Synthesis for Action
Interpolation [53.43607872972194]
本研究では、リアルな人間の動きと外観を生成できる動き誘導型フレームアップサンプリングフレームワークを提案する。
大規模モーションキャプチャーデータセットを活用することにより、フレーム間の非線形骨格運動を推定するために、新しいモーションモデルが訓練される。
私たちのパイプラインでは、低フレームレートのビデオと不自由な人間のモーションデータしか必要としませんが、トレーニングには高フレームレートのビデオは必要ありません。
論文 参考訳(メタデータ) (2021-11-01T15:32:51Z) - Single Image Non-uniform Blur Kernel Estimation via Adaptive Basis
Decomposition [1.854931308524932]
本研究では,高密度な非一様運動ボケ推定のための一般非パラメトリックモデルを提案する。
提案手法は,既存の不均一な動きのぼかし推定の限界を克服することを示す。
論文 参考訳(メタデータ) (2021-02-01T18:02:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。