論文の概要: DancingBox: A Lightweight MoCap System for Character Animation from Physical Proxies
- arxiv url: http://arxiv.org/abs/2603.17704v1
- Date: Wed, 18 Mar 2026 13:23:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.718123
- Title: DancingBox: A Lightweight MoCap System for Character Animation from Physical Proxies
- Title(参考訳): DancingBox:物理プロキシによるキャラクターアニメーションのための軽量MoCapシステム
- Authors: Haocheng Yuan, Adrien Bousseau, Hao Pan, Lei Zhong, Changjian Li,
- Abstract要約: DancingBoxは、モーションキャプチャーを初心者でも利用できるようにするビジョンベースのシステムだ。
正確な人間の動きを追跡する代わりに、DancingBoxは1つのウェブカメラでユーザーが操作する日常的な物体の動きを捉えている。
ユーザ調査によると、DancingBoxは、ぬいぐるみからバナナまで、さまざまなプロキシを使って直感的でクリエイティブなキャラクターアニメーションを可能にし、初心者アニメーターの参入障壁を低くしている。
- 参考スコア(独自算出の注目度): 22.54265332843362
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Creating compelling 3D character animations typically requires either expert use of professional software or expensive motion capture systems operated by skilled actors. We present DancingBox, a lightweight, vision-based system that makes motion capture accessible to novices by reimagining the process as digital puppetry. Instead of tracking precise human motions, DancingBox captures the approximate movements of everyday objects manipulated by users with a single webcam. These coarse proxy motions are then refined into realistic character animations by conditioning a generative motion model on bounding-box representations, enriched with human motion priors learned from large-scale datasets. To overcome the lack of paired proxy-animation data, we synthesize training pairs by converting existing motion capture sequences into proxy representations. A user study demonstrates that DancingBox enables intuitive and creative character animation using diverse proxies, from plush toys to bananas, lowering the barrier to entry for novice animators.
- Abstract(参考訳): 魅力的な3Dキャラクターアニメーションを作成するには、一般的にプロのソフトウェアを専門的に使うか、熟練した俳優が操作する高価なモーションキャプチャシステムを使う必要がある。
我々はDancingBoxを紹介した。DancingBoxは、モーションキャプチャーを初心者でも利用できるようにする軽量なビジョンベースのシステムだ。
正確な人間の動きを追跡する代わりに、DancingBoxは1つのウェブカメラでユーザーが操作する日常的な物体の動きを捉えている。
これらの粗いプロキシ動作は、大規模なデータセットから学習した人間の動きに富んだバウンディングボックス表現に生成モーションモデルを条件付けることで、リアルなキャラクターアニメーションに洗練される。
ペア化されたプロキシアニメーションデータの欠如を克服するため、既存のモーションキャプチャシーケンスをプロキシ表現に変換することで、トレーニングペアを合成する。
ユーザ調査によると、DancingBoxは、ぬいぐるみからバナナまで、さまざまなプロキシを使って直感的でクリエイティブなキャラクターアニメーションを可能にし、初心者アニメーターの参入障壁を低くしている。
関連論文リスト
- Animate-X++: Universal Character Image Animation with Dynamic Backgrounds [32.04255747303296]
Animate-X++は、擬人化文字を含む様々な文字タイプ向けのDiTに基づく普遍的なアニメーションフレームワークである。
動作表現を強化するために,暗黙的かつ明示的な方法で動画から包括的な動作パターンをキャプチャするPose Indicatorを導入する。
第2の課題として、アニメーションとTI2Vタスクを共同でトレーニングするマルチタスクトレーニング戦略を導入する。
論文 参考訳(メタデータ) (2025-08-13T03:11:28Z) - Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - Learning to Animate Images from A Few Videos to Portray Delicate Human Actions [80.61838364885482]
ビデオ生成モデルは、人間の繊細なアクションを描写するビデオに静的イメージをアニメーション化するのに依然として苦労している。
本稿では,映像をアニメーション化し,微妙な人間の行動を表現するための学習課題について,少数のビデオを用いて検討する。
本研究では、他の動画の動画特徴とフレーム間の対応を利用して、モデルに映像の再構成を強制することで、一般化可能な動きパターンを学習するFLASHを提案する。
論文 参考訳(メタデータ) (2025-03-01T01:09:45Z) - FlipSketch: Flipping Static Drawings to Text-Guided Sketch Animations [65.64014682930164]
スケッチアニメーションは、単純なフリップブックの落書きからプロのスタジオプロダクションまで、ビジュアルなストーリーテリングのための強力な媒体を提供する。
FlipSketchは、フリップブックアニメーションの魔法を復活させるシステムです。
論文 参考訳(メタデータ) (2024-11-16T14:53:03Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z) - A Robust Interactive Facial Animation Editing System [0.0]
直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
論文 参考訳(メタデータ) (2020-07-18T08:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。