論文の概要: Move As You Like: Image Animation in E-Commerce Scenario
- arxiv url: http://arxiv.org/abs/2112.13647v1
- Date: Sun, 19 Dec 2021 06:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 08:28:50.742130
- Title: Move As You Like: Image Animation in E-Commerce Scenario
- Title(参考訳): 好きなように動く:Eコマースシナリオのイメージアニメーション
- Authors: Borun Xu, Biao Wang, Jiale Tao, Tiezheng Ge, Yuning Jiang, Wen Li,
Lixin Duan
- Abstract要約: 現実のeコマースシナリオにおいて,Taobao製品イメージにモーショントランスファーを適用し,クリエイティブなアニメーションを生成する。
デモのための移動移動法に基づく人形・銅馬・玩具恐竜のタオオをアニメーション化した。
- 参考スコア(独自算出の注目度): 25.46383946349824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creative image animations are attractive in e-commerce applications, where
motion transfer is one of the import ways to generate animations from static
images. However, existing methods rarely transfer motion to objects other than
human body or human face, and even fewer apply motion transfer in practical
scenarios. In this work, we apply motion transfer on the Taobao product images
in real e-commerce scenario to generate creative animations, which are more
attractive than static images and they will bring more benefits. We animate the
Taobao products of dolls, copper running horses and toy dinosaurs based on
motion transfer method for demonstration.
- Abstract(参考訳): クリエイティブな画像アニメーションは、静止画からアニメーションを生成するインポート方法の1つであるeコマースアプリケーションで魅力的なものだ。
しかし、既存の方法では、人体や人間の顔以外の物体に動きを移すことは稀であり、現実的なシナリオではより少ない。
本研究では,実際の電子商取引シナリオにおけるTaobao製品イメージのモーショントランスファーを適用して,静的画像よりも魅力的なクリエイティブアニメーションを生成し,より多くのメリットをもたらす。
人形, 馬, おもちゃの恐竜のタオバオ生成物を, 運動伝達法を用いてアニメーション化し, 実験を行った。
関連論文リスト
- FlipSketch: Flipping Static Drawings to Text-Guided Sketch Animations [65.64014682930164]
スケッチアニメーションは、単純なフリップブックの落書きからプロのスタジオプロダクションまで、ビジュアルなストーリーテリングのための強力な媒体を提供する。
FlipSketchは、フリップブックアニメーションの魔法を復活させるシステムです。
論文 参考訳(メタデータ) (2024-11-16T14:53:03Z) - MikuDance: Animating Character Art with Mixed Motion Dynamics [28.189884806755153]
そこで我々は,混合運動力学を取り入れた拡散型パイプラインであるMikuDanceを提案し,キャラクターアートをアニメーション化する。
具体的には、動的カメラをピクセル単位の空間で明示的にモデル化し、一貫したキャラクターシーンのモーションモデリングを可能にするシーンモーショントラッキング戦略を示す。
モーション適応正規化モジュールは、グローバルなシーン動作を効果的に注入するために組み込まれ、総合的なキャラクターアートアニメーションの道を開く。
論文 参考訳(メタデータ) (2024-11-13T14:46:41Z) - Reenact Anything: Semantic Video Motion Transfer Using Motion-Textual Inversion [9.134743677331517]
本研究では、動きから外見を遠ざけるために、事前訓練された画像間映像モデルを提案する。
動作テキストインバージョン(Motion-textual Inversion)と呼ばれるこの手法は、画像から映像へのモデルが、主に(相対的な)画像入力から外観を抽出する、という観察を生かしている。
フレームごとの複数のテキスト/画像埋め込みトークンを含むインフレーションされたモーションテキスト埋め込みを操作することにより、高時間運動粒度を実現する。
動作参照ビデオと対象画像の間に空間的アライメントを必要とせず,様々な領域にまたがって一般化し,様々なタスクに適用することができる。
論文 参考訳(メタデータ) (2024-08-01T10:55:20Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models
without Specific Tuning [92.33690050667475]
AnimateDiffは、モデル固有のチューニングを必要とせずに、パーソナライズされたT2Iモデルをアニメーションするためのフレームワークである。
我々は,AnimateDiffの軽量微調整技術であるMotionLoRAを提案する。
その結果,これらのモデルが視覚的品質と動きの多様性を保ちながら,時間的にスムーズなアニメーションクリップを生成するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-07-10T17:34:16Z) - QS-Craft: Learning to Quantize, Scrabble and Craft for Conditional Human
Motion Animation [66.97112599818507]
本稿では,条件付きヒューマンモーションアニメーション(cHMA)の課題について検討する。
ソースイメージとドライビングビデオが与えられた場合、モデルは新しいフレームシーケンスをアニメーション化するべきである。
新たな3つの重要なステップは、量子化、スクラブル、クラフトだ。
論文 参考訳(メタデータ) (2022-03-22T11:34:40Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。