論文の概要: Move As You Like: Image Animation in E-Commerce Scenario
- arxiv url: http://arxiv.org/abs/2112.13647v1
- Date: Sun, 19 Dec 2021 06:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 08:28:50.742130
- Title: Move As You Like: Image Animation in E-Commerce Scenario
- Title(参考訳): 好きなように動く:Eコマースシナリオのイメージアニメーション
- Authors: Borun Xu, Biao Wang, Jiale Tao, Tiezheng Ge, Yuning Jiang, Wen Li,
Lixin Duan
- Abstract要約: 現実のeコマースシナリオにおいて,Taobao製品イメージにモーショントランスファーを適用し,クリエイティブなアニメーションを生成する。
デモのための移動移動法に基づく人形・銅馬・玩具恐竜のタオオをアニメーション化した。
- 参考スコア(独自算出の注目度): 25.46383946349824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creative image animations are attractive in e-commerce applications, where
motion transfer is one of the import ways to generate animations from static
images. However, existing methods rarely transfer motion to objects other than
human body or human face, and even fewer apply motion transfer in practical
scenarios. In this work, we apply motion transfer on the Taobao product images
in real e-commerce scenario to generate creative animations, which are more
attractive than static images and they will bring more benefits. We animate the
Taobao products of dolls, copper running horses and toy dinosaurs based on
motion transfer method for demonstration.
- Abstract(参考訳): クリエイティブな画像アニメーションは、静止画からアニメーションを生成するインポート方法の1つであるeコマースアプリケーションで魅力的なものだ。
しかし、既存の方法では、人体や人間の顔以外の物体に動きを移すことは稀であり、現実的なシナリオではより少ない。
本研究では,実際の電子商取引シナリオにおけるTaobao製品イメージのモーショントランスファーを適用して,静的画像よりも魅力的なクリエイティブアニメーションを生成し,より多くのメリットをもたらす。
人形, 馬, おもちゃの恐竜のタオバオ生成物を, 運動伝達法を用いてアニメーション化し, 実験を行った。
関連論文リスト
- PhysAnimator: Physics-Guided Generative Cartoon Animation [19.124321553546242]
我々は、静的アニメイラストからアニメスタイライズされたアニメーションを生成する新しいアプローチであるPhysAnimatorを紹介する。
アニメの流動性と誇張特性を捉えるため,抽出したメッシュ地形上で画像空間の変形可能な物体シミュレーションを行った。
シミュレーションシーケンスからスケッチを抽出し、テクスチャに依存しない表現を生成し、スケッチ誘導映像拡散モデルを用いて高品質なアニメーションフレームを合成する。
論文 参考訳(メタデータ) (2025-01-27T22:48:36Z) - Deblur-Avatar: Animatable Avatars from Motion-Blurred Monocular Videos [64.10307207290039]
デアバター(De-Avatar)は、モーションブルモノクロビデオ入力から高忠実でアニマタブルな3次元人間のアバターをモデリングするための新しいフレームワークである。
論文 参考訳(メタデータ) (2025-01-23T02:31:57Z) - Move-in-2D: 2D-Conditioned Human Motion Generation [54.067588636155115]
そこで我々は,シーンイメージに条件付けされた人間の動作シーケンスを生成する新しい手法であるMove-in-2Dを提案する。
本手法はシーンイメージとテキストプロンプトの両方を入力として受け入れ,シーンに合わせた動作シーケンスを生成する。
論文 参考訳(メタデータ) (2024-12-17T18:58:07Z) - Motion Modes: What Could Happen Next? [45.24111039863531]
現在のビデオ生成モデルは、しばしばカメラの動きや他のシーンの変化とオブジェクトの動きを絡ませる。
我々は、事前訓練された画像間ジェネレータの潜伏分布を探索する、トレーニング不要なアプローチであるMotion Modesを紹介する。
我々は、物体とカメラの動きを歪ませるように設計されたエネルギー関数で導かれたフロージェネレータを用いてこれを実現する。
論文 参考訳(メタデータ) (2024-11-29T01:51:08Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models
without Specific Tuning [92.33690050667475]
AnimateDiffは、モデル固有のチューニングを必要とせずに、パーソナライズされたT2Iモデルをアニメーションするためのフレームワークである。
我々は,AnimateDiffの軽量微調整技術であるMotionLoRAを提案する。
その結果,これらのモデルが視覚的品質と動きの多様性を保ちながら,時間的にスムーズなアニメーションクリップを生成するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T17:34:16Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。