論文の概要: Blowing in the Wind: CycleNet for Human Cinemagraphs from Still Images
- arxiv url: http://arxiv.org/abs/2303.08639v1
- Date: Wed, 15 Mar 2023 14:09:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:31:49.620363
- Title: Blowing in the Wind: CycleNet for Human Cinemagraphs from Still Images
- Title(参考訳): 風に吹く:静止画の人間のシネマグラフのサイクルネット
- Authors: Hugo Bertiche, Niloy J. Mitra, Kuldeep Kulkarni, Chun-Hao Paul Huang,
Tuanfeng Y. Wang, Meysam Madadi, Sergio Escalera and Duygu Ceylan
- Abstract要約: 本稿では,1枚のRGB画像からヒトのシネマグラフを自動生成する手法を提案する。
提案手法の核となるのは,ループ長を目標とするループ型シネマグラフを生成する,新しいサイクリックニューラルネットワークである。
合成データと実データの両方で本手法を評価し, 単一のRGB画像から, 説得力のある, もっともらしいシネマグラフを作成できることを実証した。
- 参考スコア(独自算出の注目度): 58.67263739579952
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cinemagraphs are short looping videos created by adding subtle motions to a
static image. This kind of media is popular and engaging. However, automatic
generation of cinemagraphs is an underexplored area and current solutions
require tedious low-level manual authoring by artists. In this paper, we
present an automatic method that allows generating human cinemagraphs from
single RGB images. We investigate the problem in the context of dressed humans
under the wind. At the core of our method is a novel cyclic neural network that
produces looping cinemagraphs for the target loop duration. To circumvent the
problem of collecting real data, we demonstrate that it is possible, by working
in the image normal space, to learn garment motion dynamics on synthetic data
and generalize to real data. We evaluate our method on both synthetic and real
data and demonstrate that it is possible to create compelling and plausible
cinemagraphs from single RGB images.
- Abstract(参考訳): シネマグラフ(cinemagraphs)は、静止画に微妙な動きを加えることで作られた短いループビデオである。
この種のメディアは人気があり、熱心だ。
しかし、シネマグラフの自動生成は未熟な分野であり、現在のソリューションはアーティストによる退屈な低レベルのマニュアル作成を必要とする。
本稿では,1枚のRGB画像から人間のシネマグラフを自動生成する手法を提案する。
我々は,風の下で着飾った人間の文脈でこの問題を調査した。
提案手法の核となるのが,対象ループ持続時間に対してループシネマグラフを生成する新しいサイクリックニューラルネットワークである。
実データ収集の問題を回避すべく,画像正規空間で作業することで,合成データ上で衣料運動のダイナミクスを学習し,実データに一般化できることを実証する。
合成データと実データの両方で本手法を評価し, 単一のRGB画像から, 説得力のある, もっともらしいシネマグラフを作成できることを実証した。
関連論文リスト
- LoopGaussian: Creating 3D Cinemagraph with Multi-view Images via Eulerian Motion Field [13.815932949774858]
シネマグラフ(Cinemagraph)は、静止画と微妙な動きの要素を組み合わせた視覚メディアの一種である。
本稿では,3次元ガウスモデルを用いて,2次元画像空間から3次元空間への撮影画像の高次化を提案する。
実験の結果,提案手法の有効性を検証し,高品質で視覚的に魅力的なシーン生成を実証した。
論文 参考訳(メタデータ) (2024-04-13T11:07:53Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - Generative Image Dynamics [80.70729090482575]
本研究では,シーン動作に先立って画像空間をモデル化する手法を提案する。
我々の先行研究は、実映像から抽出した動き軌跡の収集から得られたものである。
論文 参考訳(メタデータ) (2023-09-14T17:54:01Z) - Text-Guided Synthesis of Eulerian Cinemagraphs [81.20353774053768]
テキスト記述からシネマグラフを作成する完全自動化された方法であるText2Cinemagraphを紹介する。
連続した動きと反復的なテクスチャを示す流れの川や漂流する雲などの流体要素のシネマグラフに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-06T17:59:31Z) - Hybrid Neural Rendering for Large-Scale Scenes with Motion Blur [68.24599239479326]
画像ベース表現とニューラル3D表現を結合して高品質なビュー一貫性のある画像をレンダリングするハイブリッドなニューラルレンダリングモデルを開発した。
我々のモデルは、新しいビュー合成のための最先端のポイントベース手法を超越している。
論文 参考訳(メタデータ) (2023-04-25T08:36:33Z) - Endless Loops: Detecting and Animating Periodic Patterns in Still Images [6.589980988982727]
単一画像からシームレスなアニメーションループを生成するアルゴリズムを提案する。
アルゴリズムは、建物の窓や階段の階段などの周期構造を検出し、非自明な変位ベクトル場を生成する。
この変位場は、時間的および空間的平滑化と共に画像をワープし、連続したアニメーションループのフレームを生成する。
論文 参考訳(メタデータ) (2021-05-19T19:39:58Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。