論文の概要: Blowing in the Wind: CycleNet for Human Cinemagraphs from Still Images
- arxiv url: http://arxiv.org/abs/2303.08639v1
- Date: Wed, 15 Mar 2023 14:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:31:49.620363
- Title: Blowing in the Wind: CycleNet for Human Cinemagraphs from Still Images
- Title(参考訳): 風に吹く:静止画の人間のシネマグラフのサイクルネット
- Authors: Hugo Bertiche, Niloy J. Mitra, Kuldeep Kulkarni, Chun-Hao Paul Huang,
Tuanfeng Y. Wang, Meysam Madadi, Sergio Escalera and Duygu Ceylan
- Abstract要約: 本稿では,1枚のRGB画像からヒトのシネマグラフを自動生成する手法を提案する。
提案手法の核となるのは,ループ長を目標とするループ型シネマグラフを生成する,新しいサイクリックニューラルネットワークである。
合成データと実データの両方で本手法を評価し, 単一のRGB画像から, 説得力のある, もっともらしいシネマグラフを作成できることを実証した。
- 参考スコア(独自算出の注目度): 58.67263739579952
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cinemagraphs are short looping videos created by adding subtle motions to a
static image. This kind of media is popular and engaging. However, automatic
generation of cinemagraphs is an underexplored area and current solutions
require tedious low-level manual authoring by artists. In this paper, we
present an automatic method that allows generating human cinemagraphs from
single RGB images. We investigate the problem in the context of dressed humans
under the wind. At the core of our method is a novel cyclic neural network that
produces looping cinemagraphs for the target loop duration. To circumvent the
problem of collecting real data, we demonstrate that it is possible, by working
in the image normal space, to learn garment motion dynamics on synthetic data
and generalize to real data. We evaluate our method on both synthetic and real
data and demonstrate that it is possible to create compelling and plausible
cinemagraphs from single RGB images.
- Abstract(参考訳): シネマグラフ(cinemagraphs)は、静止画に微妙な動きを加えることで作られた短いループビデオである。
この種のメディアは人気があり、熱心だ。
しかし、シネマグラフの自動生成は未熟な分野であり、現在のソリューションはアーティストによる退屈な低レベルのマニュアル作成を必要とする。
本稿では,1枚のRGB画像から人間のシネマグラフを自動生成する手法を提案する。
我々は,風の下で着飾った人間の文脈でこの問題を調査した。
提案手法の核となるのが,対象ループ持続時間に対してループシネマグラフを生成する新しいサイクリックニューラルネットワークである。
実データ収集の問題を回避すべく,画像正規空間で作業することで,合成データ上で衣料運動のダイナミクスを学習し,実データに一般化できることを実証する。
合成データと実データの両方で本手法を評価し, 単一のRGB画像から, 説得力のある, もっともらしいシネマグラフを作成できることを実証した。
関連論文リスト
- Learning 3D Photography Videos via Self-supervised Diffusion on Single
Images [105.81348348510551]
3D写真は、静止画を3D視覚効果のあるビデオにレンダリングする。
既存のアプローチは通常、まず単眼深度推定を行い、次に様々な視点で入力フレームを後続のフレームに描画する。
我々は、入力オブジェクトの空間と時間を拡張する、新しいタスク、out-animationを提案する。
論文 参考訳(メタデータ) (2023-02-21T16:18:40Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z) - Endless Loops: Detecting and Animating Periodic Patterns in Still Images [6.589980988982727]
単一画像からシームレスなアニメーションループを生成するアルゴリズムを提案する。
アルゴリズムは、建物の窓や階段の階段などの周期構造を検出し、非自明な変位ベクトル場を生成する。
この変位場は、時間的および空間的平滑化と共に画像をワープし、連続したアニメーションループのフレームを生成する。
論文 参考訳(メタデータ) (2021-05-19T19:39:58Z) - STaR: Self-supervised Tracking and Reconstruction of Rigid Objects in
Motion with Neural Rendering [9.600908665766465]
本稿では,マルチビューRGB動画のリジッドモーションによる動的シーンの自己監視追跡と再構成を,手動アノテーションなしで行う新しい手法であるSTaRについて述べる。
本手法は,空間軸と時間軸の両方で新規性を測定するフォトリアリスティック・ノベルビューを描画できることを示した。
論文 参考訳(メタデータ) (2020-12-22T23:45:28Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。