論文の概要: Implicit Warping for Animation with Image Sets
- arxiv url: http://arxiv.org/abs/2210.01794v1
- Date: Tue, 4 Oct 2022 17:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:41:11.746848
- Title: Implicit Warping for Animation with Image Sets
- Title(参考訳): 画像集合によるアニメーションのインプシット・ワープ
- Authors: Arun Mallya, Ting-Chun Wang, Ming-Yu Liu
- Abstract要約: 本稿では,ドライブビデオの転送による画像の集合を用いた画像アニメーションのための新しい暗黙のワープフレームワークを提案する。
ソース画像と駆動画像との対応を見つけ、異なるソース画像から最も適切な特徴を選択し、選択した特徴をワープするために、単一のクロスモーダルアテンション層が使用される。
- 参考スコア(独自算出の注目度): 35.61058711711003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new implicit warping framework for image animation using sets of
source images through the transfer of the motion of a driving video. A single
cross- modal attention layer is used to find correspondences between the source
images and the driving image, choose the most appropriate features from
different source images, and warp the selected features. This is in contrast to
the existing methods that use explicit flow-based warping, which is designed
for animation using a single source and does not extend well to multiple
sources. The pick-and-choose capability of our framework helps it achieve
state-of-the-art results on multiple datasets for image animation using both
single and multiple source images. The project website is available at
https://deepimagination.cc/implicit warping/
- Abstract(参考訳): 本稿では,動画の動画の動画移動を通じて,画像の集合を用いた画像アニメーションのための暗黙のワープフレームワークを提案する。
ソース画像と駆動画像との対応を見つけ、異なるソース画像から最も適切な特徴を選択し、選択した特徴をワープするために、1つのクロスモーダルアテンション層を用いる。
これは、単一ソースを使用したアニメーション用に設計され、複数のソースにうまく拡張されない明示的なフローベースのワープを使用する既存の方法とは対照的である。
我々のフレームワークのピック・アンド・チョース機能は、単一のソースイメージと複数のソースイメージの両方を用いて、画像アニメーションのための複数のデータセットの最先端結果を得るのに役立ちます。
プロジェクトのwebサイトはhttps://deepimagination.cc/implicit warping/で入手できる。
関連論文リスト
- AnimateZero: Video Diffusion Models are Zero-Shot Image Animators [63.938509879469024]
我々はAnimateZeroを提案し、事前訓練されたテキスト・ビデオ拡散モデル、すなわちAnimateDiffを提案する。
外観制御のために,テキスト・ツー・イメージ(T2I)生成から中間潜伏子とその特徴を借りる。
時間的制御では、元のT2Vモデルのグローバルな時間的注意を位置補正窓の注意に置き換える。
論文 参考訳(メタデータ) (2023-12-06T13:39:35Z) - WAIT: Feature Warping for Animation to Illustration video Translation
using GANs [12.681919619814419]
ビデオのスタイリングにおいて,未順序画像の集合を用いる場合の新たな問題を提案する。
映像から映像への翻訳のほとんどは、画像から画像への翻訳モデルに基づいて構築されている。
本稿では,従来の手法の限界を克服する特徴変形層を有する新しいジェネレータネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T19:45:24Z) - Thin-Plate Spline Motion Model for Image Animation [9.591298403129532]
イメージアニメーションは、ドライビングビデオに従って、ソースイメージ内の静的オブジェクトに生命をもたらす。
近年の研究では、事前知識を使わずに、教師なし手法による任意の物体の移動を試みている。
ソース内のオブジェクトと駆動イメージの間に大きなポーズギャップがある場合、現在の教師なしメソッドにとって、これは依然として重要な課題である。
論文 参考訳(メタデータ) (2022-03-27T18:40:55Z) - PriorityCut: Occlusion-guided Regularization for Warp-based Image
Animation [0.0]
自己監視画像アニメーションアプローチは、駆動ビデオの動作に応じてソースイメージを警告し、塗り込みによりワーピングアーティファクトを復元する。
本稿では,ワープ画像のアニメーションに対するCutMixの効果について予備的検討を行う。
ワープ画像アニメーションを正規化するために、前景の上位Kパーセントの画素を使用する新しい拡張手法であるPriorityCutを提案する。
論文 参考訳(メタデータ) (2021-03-22T06:05:20Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Image Animation with Perturbed Masks [95.94432031144716]
我々は,同じタイプのオブジェクトを描画する駆動ビデオにより,ソースイメージの画像アニメーションのための新しいアプローチを提案する。
我々はポーズモデルの存在を前提とせず、オブジェクトの構造を知ることなく任意のオブジェクトをアニメーション化することができる。
論文 参考訳(メタデータ) (2020-11-13T14:17:17Z) - Deep Spatial Transformation for Pose-Guided Person Image Generation and
Animation [50.10989443332995]
ポーズ誘導型人物画像生成とアニメーションは、元人物画像をターゲットポーズに変換することを目的としている。
畳み込みニューラルネットワークは、入力を空間的に変換する能力の欠如によって制限される。
本稿では,機能レベルでのインプットを再構築するグローバルフロー局所アテンションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T08:59:44Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。