論文の概要: Multi-Object Sketch Animation with Grouping and Motion Trajectory Priors
- arxiv url: http://arxiv.org/abs/2508.15535v1
- Date: Thu, 21 Aug 2025 13:11:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.335627
- Title: Multi-Object Sketch Animation with Grouping and Motion Trajectory Priors
- Title(参考訳): グループ化と運動軌跡を優先したマルチオブジェクトスケッチアニメーション
- Authors: Guotao Liang, Juncheng Hu, Ximing Xing, Jing Zhang, Qian Yu,
- Abstract要約: GroupSketchは、複数オブジェクトの相互作用と複雑な動きを効果的に扱う、ベクトルスケッチアニメーションの新しい方法である。
提案手法は,高品質で時間的に一貫したアニメーションを生成する上で,既存の手法よりも優れている。
- 参考スコア(独自算出の注目度): 17.222592006593057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GroupSketch, a novel method for vector sketch animation that effectively handles multi-object interactions and complex motions. Existing approaches struggle with these scenarios, either being limited to single-object cases or suffering from temporal inconsistency and poor generalization. To address these limitations, our method adopts a two-stage pipeline comprising Motion Initialization and Motion Refinement. In the first stage, the input sketch is interactively divided into semantic groups and key frames are defined, enabling the generation of a coarse animation via interpolation. In the second stage, we propose a Group-based Displacement Network (GDN), which refines the coarse animation by predicting group-specific displacement fields, leveraging priors from a text-to-video model. GDN further incorporates specialized modules, such as Context-conditioned Feature Enhancement (CCFE), to improve temporal consistency. Extensive experiments demonstrate that our approach significantly outperforms existing methods in generating high-quality, temporally consistent animations for complex, multi-object sketches, thus expanding the practical applications of sketch animation.
- Abstract(参考訳): 本稿では,複数オブジェクトの相互作用や複雑な動きを効果的に処理する,ベクトルスケッチアニメーションの新しい手法であるGroupSketchを紹介する。
既存のアプローチは、単一対象のケースに制限されるか、時間的不整合と一般化の不整合に苦しむ、これらのシナリオに苦しむ。
これらの制約に対処するため,本手法では動作初期化と動作再ファインメントからなる2段階のパイプラインを採用する。
第1段階では、入力スケッチを対話的にセマンティックグループに分割し、キーフレームを定義することにより、補間による粗いアニメーションの生成を可能にする。
第2段階では,グループ固有の変位場を予測して粗いアニメーションを洗練し,テキスト・ビデオモデルからの事前情報を活用するグループベース変位ネットワーク(GDN)を提案する。
GDNはさらに、時間的一貫性を改善するために、コンテキスト条件付き特徴拡張(CCFE)のような特殊なモジュールも組み込んでいる。
大規模な実験により,本手法は,複雑なマルチオブジェクトスケッチのための高品質かつ時間的に一貫したアニメーションを生成する上で,既存の手法よりも大幅に優れており,スケッチアニメーションの実用的応用が拡大していることが示された。
関連論文リスト
- SeC: Advancing Complex Video Object Segmentation via Progressive Concept Construction [65.15449703659772]
ビデオオブジェクト(VOS)はコンピュータビジョンにおける中核的なタスクであり、ターゲットオブジェクトの追跡とセグメント化をモデルに要求する。
本稿では,従来の特徴マッチングから,高レベルなオブジェクト中心表現のプログレッシブな構築と利用へ移行する概念駆動セグメンテーションフレームワークであるセグメンテーション概念(SeC)を提案する。
SeCはSAM SeCVOSよりも11.8ポイント改善され、最先端のコンセプトを意識したビデオオブジェクトセグメンテーションが新たに確立された。
論文 参考訳(メタデータ) (2025-07-21T17:59:02Z) - SynMotion: Semantic-Visual Adaptation for Motion Customized Video Generation [56.90807453045657]
SynMotion(シンモクション)は、セマンティックガイダンスと視覚適応を併用した動画生成モデルである。
意味レベルでは、主観と動きの表現をアンタングルする二項意味理解機構を導入する。
視覚レベルでは、効率的なモーションアダプタをトレーニング済みのビデオ生成モデルに統合し、動きの忠実度と時間的コヒーレンスを高める。
論文 参考訳(メタデータ) (2025-06-30T10:09:32Z) - Segment Any Motion in Videos [80.72424676419755]
本研究では,長距離軌道運動キューとDINOに基づく意味的特徴を組み合わせた移動物体セグメンテーションを提案する。
本モデルでは,動作を優先し,セマンティックサポートを統合しつつ,時空間軌道注意と動き・セマンティック・デカップリング・エンベディングを用いた。
論文 参考訳(メタデータ) (2025-03-28T09:34:11Z) - StarVid: Enhancing Semantic Alignment in Video Diffusion Models via Spatial and SynTactic Guided Attention Refocusing [40.50917266880829]
我々は,T2Vモデルにおける複数の被験者間のセマンティックアライメント,動作,テキストプロンプトを改善するための,プラグイン・アンド・プレイ方式であるtextbfStarVidを提案する。
StarVidはまず、テキストプロンプトに基づく2段階の運動軌跡計画に大規模言語モデル(LLM)の空間的推論機能を利用する。
論文 参考訳(メタデータ) (2024-09-23T17:56:03Z) - Bridging the Gap: Sketch-Aware Interpolation Network for High-Quality Animation Sketch Inbetweening [58.09847349781176]
我々は,新しい深層学習手法であるSketch-Aware Interpolation Network (SAIN)を提案する。
このアプローチには、領域レベルの対応、ストロークレベルの対応、ピクセルレベルのダイナミクスを定式化するマルチレベルガイダンスが組み込まれている。
マルチストリームのU-Transformerは、自己/クロスアテンション機構の統合により、これらのマルチレベルガイドを使用して、スケッチ間のインテンションパターンを特徴付けるように設計されている。
論文 参考訳(メタデータ) (2023-08-25T09:51:03Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。