論文の概要: BiMotion: B-spline Motion for Text-guided Dynamic 3D Character Generation
- arxiv url: http://arxiv.org/abs/2602.18873v1
- Date: Sat, 21 Feb 2026 15:40:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.370258
- Title: BiMotion: B-spline Motion for Text-guided Dynamic 3D Character Generation
- Title(参考訳): BiMotion:テキスト誘導動的3Dキャラクタ生成のためのBスプラインモーション
- Authors: Miaowei Wang, Qingxuan Yan, Zhi Cao, Yayuan Li, Oisin Mac Aodha, Jason J. Corso, Amir Vaxman,
- Abstract要約: テキストガイドによる動的3Dキャラクタ生成は急速に進歩しているが、リッチなテキスト記述を忠実に反映した高品質なモーションを生成することは依然として困難である。
既存の手法では、固定長の時間入力と、リッチな動きのセマンティクスを捉えるのに失敗する離散的なフレームワイズ表現により、限られたサブアクションや非コヒーレントな動きを生成する傾向がある。
連続的な微分可能なB-スプライン曲線で動きを表現することでこれらの制約に対処し、基礎となる生成モデルの能力を変更することなくより効果的な動き生成を可能にする。
- 参考スコア(独自算出の注目度): 31.077229364298443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-guided dynamic 3D character generation has advanced rapidly, yet producing high-quality motion that faithfully reflects rich textual descriptions remains challenging. Existing methods tend to generate limited sub-actions or incoherent motion due to fixed-length temporal inputs and discrete frame-wise representations that fail to capture rich motion semantics. We address these limitations by representing motion with continuous differentiable B-spline curves, enabling more effective motion generation without modifying the capabilities of the underlying generative model. Specifically, our closed-form, Laplacian-regularized B-spline solver efficiently compresses variable-length motion sequences into compact representations with a fixed number of control points. Further, we introduce a normal-fusion strategy for input shape adherence along with correspondence-aware and local-rigidity losses for motion-restoration quality. To train our model, we collate BIMO, a new dataset containing diverse variable-length 3D motion sequences with rich, high-quality text annotations. Extensive evaluations show that our feed-forward framework BiMotion generates more expressive, higher-quality, and better prompt-aligned motions than existing state-of-the-art methods, while also achieving faster generation. Our project page is at: https://wangmiaowei.github.io/BiMotion.github.io/.
- Abstract(参考訳): テキストガイドによる動的3Dキャラクタ生成は急速に進歩しているが、リッチなテキスト記述を忠実に反映した高品質なモーションを生成することは依然として困難である。
既存の手法では、固定長の時間入力と、リッチな動きのセマンティクスを捉えるのに失敗する離散的なフレームワイズ表現により、限られたサブアクションや非コヒーレントな動きを生成する傾向がある。
連続的な微分可能なB-スプライン曲線で動きを表現することでこれらの制約に対処し、基礎となる生成モデルの能力を変更することなくより効果的な動き生成を可能にする。
具体的には、我々の閉形式であるラプラシア正規化B-スプラインソルバは、可変長の運動列を一定数の制御点を持つコンパクトな表現に効率よく圧縮する。
さらに、入力形状の付着に対する正規融合戦略と、動きの回復品質に対する対応意識と局所剛性損失を導入する。
モデルをトレーニングするために,多様な可変長3次元モーションシーケンスとリッチで高品質なテキストアノテーションを含む新しいデータセットであるBIMOを照合した。
フィードフォワードフレームワークであるBiMotionは、既存の最先端手法よりも表現力が高く、高品質で、よりプロンプト整列した動作を生成できると同時に、より高速な生成を実現する。
私たちのプロジェクトページは以下の通りです。
関連論文リスト
- IM-Animation: An Implicit Motion Representation for Identity-decoupled Character Animation [58.297199313494]
インプシット法は、動画から直接動作の意味をキャプチャするが、動作と外観の絡み合いやアイデンティティの漏洩に悩まされる。
本稿では,フレームごとの動作をコンパクトな1次元モーショントークンに圧縮する新しい暗黙の動作表現を提案する。
本手法では,3段階のトレーニング戦略を用いて,トレーニング効率を高め,高い忠実性を確保する。
論文 参考訳(メタデータ) (2026-02-07T11:17:20Z) - T2M Mamba: Motion Periodicity-Saliency Coupling Approach for Stable Text-Driven Motion Generation [3.6564162676635363]
アバターアニメーションやヒューマノイドロボットのインタラクションといった分野において、テキスト・トゥ・モーション・ジェネレーションが注目を集めている。
モデルは、動き周期性とサリエンシを独立した要因として扱い、それらの結合を見下ろし、長いシーケンスで生成のドリフトを引き起こす。
本稿では,この制限に対処するT2M Mambaを提案する。
論文 参考訳(メタデータ) (2026-02-01T17:42:53Z) - M2DAO-Talker: Harmonizing Multi-granular Motion Decoupling and Alternating Optimization for Talking-head Generation [65.48046909056468]
我々は,音声音声生成をビデオ前処理,モーション表現,レンダリング再構成を含む統一的なフレームワークに再構成する。
M2DAO-Talkerは2.43dBのPSNRの改善とユーザ評価ビデオの画質0.64アップで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-07-11T04:48:12Z) - Towards Robust and Controllable Text-to-Motion via Masked Autoregressive Diffusion [33.9786226622757]
テキスト記述から3次元動作を生成するための頑健な動き生成フレームワークMoMADiffを提案する。
我々のモデルはフレキシブルなユーザ提供仕様をサポートし、動き合成の空間的側面と時間的側面の両方を正確に制御できる。
提案手法は, 動作品質, 命令忠実度, 定着度において, 常に最先端のモデルより優れる。
論文 参考訳(メタデータ) (2025-05-16T09:06:15Z) - DartControl: A Diffusion-Based Autoregressive Motion Model for Real-Time Text-Driven Motion Control [12.465927271402442]
テキスト条件付きヒューマンモーション生成は、自然言語によるユーザインタラクションを可能にする。
DartControlは、リアルタイムテキスト駆動モーションコントロールのための拡散ベースの自動回帰モーションプリミティブモデルである。
本モデルは,動作履歴とテキスト入力を併用したコンパクトな動き原始空間を効果的に学習する。
論文 参考訳(メタデータ) (2024-10-07T17:58:22Z) - Infinite Motion: Extended Motion Generation via Long Text Instructions [51.61117351997808]
『無限運動』は、長文を長文から拡張運動生成に活用する新しいアプローチである。
我々のモデルの主な革新は、任意の長さのテキストを入力として受け入れることである。
テキストのタイムスタンプ設計を取り入れ、生成されたシーケンス内のローカルセグメントの正確な編集を可能にする。
論文 参考訳(メタデータ) (2024-07-11T12:33:56Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。