論文の概要: Motion Capture is Not the Target Domain: Scaling Synthetic Data for Learning Motion Representations
- arxiv url: http://arxiv.org/abs/2602.11064v1
- Date: Wed, 11 Feb 2026 17:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:02.246816
- Title: Motion Capture is Not the Target Domain: Scaling Synthetic Data for Learning Motion Representations
- Title(参考訳): モーションキャプチャーはターゲット領域ではない:モーション表現学習のための合成データのスケーリング
- Authors: Firas Darwish, George Nicholson, Aiden Doherty, Hang Yuan,
- Abstract要約: 合成データは、実世界のデータが不足している場合に、スケーラブルな事前トレーニングへの魅力的なパスを提供する。
合成事前学習は,実データと混合した場合や,十分にスケールされた場合の一般化を向上することを示す。
また,ウェアラブル信号とのドメインミスマッチにより,大規模モーションキャプチャ事前学習が限界ゲインしか得られないことを実証した。
- 参考スコア(独自算出の注目度): 5.6709566608425765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic data offers a compelling path to scalable pretraining when real-world data is scarce, but models pretrained on synthetic data often fail to transfer reliably to deployment settings. We study this problem in full-body human motion, where large-scale data collection is infeasible but essential for wearable-based Human Activity Recognition (HAR), and where synthetic motion can be generated from motion-capture-derived representations. We pretrain motion time-series models using such synthetic data and evaluate their transfer across diverse downstream HAR tasks. Our results show that synthetic pretraining improves generalisation when mixed with real data or scaled sufficiently. We also demonstrate that large-scale motion-capture pretraining yields only marginal gains due to domain mismatch with wearable signals, clarifying key sim-to-real challenges and the limits and opportunities of synthetic motion data for transferable HAR representations.
- Abstract(参考訳): 合成データは、実世界のデータが不足している場合、スケーラブルな事前トレーニングへの魅力的なパスを提供するが、合成データに事前トレーニングされたモデルは、デプロイメント設定に確実に転送できないことが多い。
本研究では,大規模なデータ収集が実現不可能だがウェアラブルベースのヒューマンアクティビティ認識(HAR)に不可欠であるフルボディの人体動作においてこの問題を考察し,モーションキャプチャー由来の表現から合成動作を生成する方法を提案する。
我々は,このような合成データを用いて動作時系列モデルを事前訓練し,下流HARタスク間の移動を評価する。
以上の結果から, 合成事前学習は, 実データと混合した場合や, 十分にスケールした場合の一般化を向上することが示された。
また、大規模モーションキャプチャ事前学習は、ウェアラブル信号とのドメインミスマッチによる限界利得しか得られないことを示し、重要なsim-to-realチャレンジと、転送可能なHAR表現のための合成モーションデータの限界と機会を明らかにした。
関連論文リスト
- Scaling Laws of Synthetic Data for Language Models [125.41600201811417]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Enhancing Activity Recognition After Stroke: Generative Adversarial Networks for Kinematic Data Augmentation [0.0]
脳卒中リハビリテーションにおけるウェアラブルモニタリングのための機械学習モデルの一般化可能性はしばしば、利用可能なデータの限られたスケールと不均一性によって制限される。
データ拡張は、トレーニングセットに表される変動性を強化するために、実際のデータに計算的に導出されたデータを追加することで、この課題に対処する。
本研究では、CGAN(Conditional Generative Adversarial Networks)を用いて、公開データセットから合成キネマティックデータを生成する。
合成データと実験データの両方でディープラーニングモデルを訓練することにより、タスク分類精度を向上させる:実データのみを訓練したモデルでは66.1%よりもはるかに高い80.0%の精度で合成データを組み込んだモデル。
論文 参考訳(メタデータ) (2024-06-12T15:51:00Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - A Scaling Law for Synthetic-to-Real Transfer: A Measure of Pre-Training [52.93808218720784]
合成から現実への変換学習は,実タスクのための合成画像と接地真実アノテーションを用いた事前学習を行うフレームワークである。
合成画像はデータの不足を克服するが、事前訓練されたモデルで微調整性能がどのようにスケールするかは定かではない。
我々は、合成事前学習データの様々なタスク、モデル、複雑さにおける学習曲線を一貫して記述する、単純で一般的なスケーリング法則を観察する。
論文 参考訳(メタデータ) (2021-08-25T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。