論文の概要: LINR Bridge: Vector Graphic Animation via Neural Implicits and Video Diffusion Priors
- arxiv url: http://arxiv.org/abs/2509.07484v1
- Date: Tue, 09 Sep 2025 08:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.220737
- Title: LINR Bridge: Vector Graphic Animation via Neural Implicits and Video Diffusion Priors
- Title(参考訳): LINRブリッジ:ニューラルインプリシットとビデオ拡散プリミティブによるベクトルグラフアニメーション
- Authors: Wenshuo Gao, Xicheng Lan, Luyao Zhang, Shuai Yang,
- Abstract要約: 本稿では,暗黙的ニューラル表現とテキストからビデオへの拡散モデルを統合したベクトルグラフィックアニメーションを提案する。
提案手法では,階層型暗黙的ニューラル表現を用いてベクトルグラフィックスを再構成し,無限分解能や正確な色や形状の制約といった固有の特性を保存する。
ニューラル表現は、事前訓練されたテキストからビデオへの拡散モデルからの動作先を利用するビデオスコア蒸留サンプリングを用いて最適化される。
- 参考スコア(独自算出の注目度): 8.74744557581647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vector graphics, known for their scalability and user-friendliness, provide a unique approach to visual content compared to traditional pixel-based images. Animation of these graphics, driven by the motion of their elements, offers enhanced comprehensibility and controllability but often requires substantial manual effort. To automate this process, we propose a novel method that integrates implicit neural representations with text-to-video diffusion models for vector graphic animation. Our approach employs layered implicit neural representations to reconstruct vector graphics, preserving their inherent properties such as infinite resolution and precise color and shape constraints, which effectively bridges the large domain gap between vector graphics and diffusion models. The neural representations are then optimized using video score distillation sampling, which leverages motion priors from pretrained text-to-video diffusion models. Finally, the vector graphics are warped to match the representations resulting in smooth animation. Experimental results validate the effectiveness of our method in generating vivid and natural vector graphic animations, demonstrating significant improvement over existing techniques that suffer from limitations in flexibility and animation quality.
- Abstract(参考訳): ベクターグラフィックスはスケーラビリティとユーザフレンドリさで知られており、従来のピクセルベースの画像と比較して視覚的コンテンツにユニークなアプローチを提供する。
これらのグラフィックスのアニメーションは、要素の動きによって駆動され、理解性と制御性の向上を提供するが、しばしばかなりの手作業を必要とする。
このプロセスを自動化するために,暗黙的ニューラル表現とテキスト間拡散モデルを統合したベクトルグラフィックアニメーションを提案する。
提案手法では, 階層型暗黙的ニューラル表現を用いてベクトルグラフィックスを再構成し, 無限分解能, 正確な色や形状の制約などの固有の特性を保ち, ベクトルグラフィックスと拡散モデルの間の大きな領域ギャップを効果的に橋渡しする。
ニューラル表現は、事前訓練されたテキストからビデオへの拡散モデルからの動作先を利用するビデオスコア蒸留サンプリングを用いて最適化される。
最後に、ベクトルグラフィックスは、スムーズなアニメーションをもたらす表現にマッチするように警告される。
実験により,鮮明で自然なベクトルグラフィックアニメーション作成における本手法の有効性を検証し,柔軟性やアニメーション品質の限界に悩まされている既存手法よりも大幅に向上したことを示す。
関連論文リスト
- AniClipart: Clipart Animation with Text-to-Video Priors [28.76809141136148]
本稿では,静的アニメーションをテキストからビデオへの誘導による高品質なアニメーションに変換する計算システムAniClipartを紹介する。
As-Rigid-As-Possible(ARAP)形状の変形とレンダリングの差別化により、AniClipartは剛性を維持しながらエンドツーエンドで最適化できる。
論文 参考訳(メタデータ) (2024-04-18T17:24:28Z) - StrokeNUWA: Tokenizing Strokes for Vector Graphic Synthesis [112.25071764647683]
StrokeNUWAはベクターグラフィックスにおけるより良い視覚表現'ストロークトークン'を探求する先駆的な研究である。
ストロークトークンを備えたStrokeNUWAは、従来のLCMベースの最適化ベースのメソッドを大幅に上回ることができる。
StrokeNUWAは、SVGコード圧縮比が6.9%の従来の手法よりも94倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-01-30T15:20:26Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Generative Image Dynamics [80.70729090482575]
本研究では,シーン動作に先立って画像空間をモデル化する手法を提案する。
我々の先行研究は、実映像から抽出した動き軌跡の収集から得られたものである。
論文 参考訳(メタデータ) (2023-09-14T17:54:01Z) - Unsupervised Learning of Style-Aware Facial Animation from Real Acting
Performances [3.95944314850151]
本稿では, ブレンド形状, 動的テクスチャ, ニューラルレンダリングに基づく写真リアルな頭部モデルのテキスト/音声駆動アニメーションのための新しい手法を提案する。
本手法は,テキストや音声をアニメーションパラメータの列に変換する条件付きCNNに基づいている。
リアルなリアルタイムレンダリングのために、私たちは、改良された色と前景マットを演算することで、ピクセル化ベースのレンダリングを洗練するU-Netを訓練します。
論文 参考訳(メタデータ) (2023-06-16T17:58:04Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。