論文の概要: Move As You Like: Image Animation in E-Commerce Scenario
- arxiv url: http://arxiv.org/abs/2112.13647v1
- Date: Sun, 19 Dec 2021 06:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 08:28:50.742130
- Title: Move As You Like: Image Animation in E-Commerce Scenario
- Title(参考訳): 好きなように動く:Eコマースシナリオのイメージアニメーション
- Authors: Borun Xu, Biao Wang, Jiale Tao, Tiezheng Ge, Yuning Jiang, Wen Li,
Lixin Duan
- Abstract要約: 現実のeコマースシナリオにおいて,Taobao製品イメージにモーショントランスファーを適用し,クリエイティブなアニメーションを生成する。
デモのための移動移動法に基づく人形・銅馬・玩具恐竜のタオオをアニメーション化した。
- 参考スコア(独自算出の注目度): 25.46383946349824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creative image animations are attractive in e-commerce applications, where
motion transfer is one of the import ways to generate animations from static
images. However, existing methods rarely transfer motion to objects other than
human body or human face, and even fewer apply motion transfer in practical
scenarios. In this work, we apply motion transfer on the Taobao product images
in real e-commerce scenario to generate creative animations, which are more
attractive than static images and they will bring more benefits. We animate the
Taobao products of dolls, copper running horses and toy dinosaurs based on
motion transfer method for demonstration.
- Abstract(参考訳): クリエイティブな画像アニメーションは、静止画からアニメーションを生成するインポート方法の1つであるeコマースアプリケーションで魅力的なものだ。
しかし、既存の方法では、人体や人間の顔以外の物体に動きを移すことは稀であり、現実的なシナリオではより少ない。
本研究では,実際の電子商取引シナリオにおけるTaobao製品イメージのモーショントランスファーを適用して,静的画像よりも魅力的なクリエイティブアニメーションを生成し,より多くのメリットをもたらす。
人形, 馬, おもちゃの恐竜のタオバオ生成物を, 運動伝達法を用いてアニメーション化し, 実験を行った。
関連論文リスト
- AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models
without Specific Tuning [92.33690050667475]
AnimateDiffは、モデル固有のチューニングを必要とせずに、パーソナライズされたT2Iモデルをアニメーションするためのフレームワークである。
我々は,AnimateDiffの軽量微調整技術であるMotionLoRAを提案する。
その結果,これらのモデルが視覚的品質と動きの多様性を保ちながら,時間的にスムーズなアニメーションクリップを生成するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T17:34:16Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - Motion Transformer for Unsupervised Image Animation [37.35527776043379]
画像アニメーションは、駆動ビデオから学んだ動きを用いて、ソースイメージをアニメーションすることを目的としている。
現在の最先端の手法は、通常、運動情報を予測するために畳み込みニューラルネットワーク(CNN)を使用する。
本稿では,視覚変換器をベースとした動き推定器構築の試みである動き変換器を提案する。
論文 参考訳(メタデータ) (2022-09-28T12:04:58Z) - QS-Craft: Learning to Quantize, Scrabble and Craft for Conditional Human
Motion Animation [66.97112599818507]
本稿では,条件付きヒューマンモーションアニメーション(cHMA)の課題について検討する。
ソースイメージとドライビングビデオが与えられた場合、モデルは新しいフレームシーケンスをアニメーション化するべきである。
新たな3つの重要なステップは、量子化、スクラブル、クラフトだ。
論文 参考訳(メタデータ) (2022-03-22T11:34:40Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。