論文の概要: DreamLoop: Controllable Cinemagraph Generation from a Single Photograph
- arxiv url: http://arxiv.org/abs/2601.02646v1
- Date: Tue, 06 Jan 2026 01:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.767665
- Title: DreamLoop: Controllable Cinemagraph Generation from a Single Photograph
- Title(参考訳): 1枚の写真から映像を生成するDreamLoop
- Authors: Aniruddha Mahapatra, Long Mai, Cusuh Ham, Feng Liu,
- Abstract要約: 一つの写真から映像を生成するための、制御可能なビデオ合成フレームワークDreamLoopを紹介する。
私たちのキーとなるアイデアは、時間的ブリッジングとモーションコンディショニングという2つの目標に基づいて、一般的なビデオ拡散モデルを適用することです。
提案手法は,ユーザ意図に整合した高品質で複雑なシネマグラフを製作し,既存手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 15.908714882662823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cinemagraphs, which combine static photographs with selective, looping motion, offer unique artistic appeal. Generating them from a single photograph in a controllable manner is particularly challenging. Existing image-animation techniques are restricted to simple, low-frequency motions and operate only in narrow domains with repetitive textures like water and smoke. In contrast, large-scale video diffusion models are not tailored for cinemagraph constraints and lack the specialized data required to generate seamless, controlled loops. We present DreamLoop, a controllable video synthesis framework dedicated to generating cinemagraphs from a single photo without requiring any cinemagraph training data. Our key idea is to adapt a general video diffusion model by training it on two objectives: temporal bridging and motion conditioning. This strategy enables flexible cinemagraph generation. During inference, by using the input image as both the first- and last- frame condition, we enforce a seamless loop. By conditioning on static tracks, we maintain a static background. Finally, by providing a user-specified motion path for a target object, our method provides intuitive control over the animation's trajectory and timing. To our knowledge, DreamLoop is the first method to enable cinemagraph generation for general scenes with flexible and intuitive controls. We demonstrate that our method produces high-quality, complex cinemagraphs that align with user intent, outperforming existing approaches.
- Abstract(参考訳): 静止画と選択的なループの動きを組み合わせたシネマグラフは、ユニークな芸術的魅力を提供する。
単一の写真からコントロール可能な方法で生成することは特に困難です。
既存の画像アニメーション技術は、単純で低周波な動きに限定され、水や煙のような反復的なテクスチャを持つ狭い領域でのみ動作する。
対照的に、大規模なビデオ拡散モデルは、フィルムの制約に適合せず、シームレスで制御されたループを生成するのに必要な特別なデータが欠如している。
本研究では,1枚の写真から撮影画像を生成するための制御可能なビデオ合成フレームワークであるDreamLoopについて述べる。
私たちのキーとなるアイデアは、時間的ブリッジングとモーションコンディショニングという2つの目標に基づいて、一般的なビデオ拡散モデルを適用することです。
この戦略はフレキシブルなシネマグラフ生成を可能にする。
推論では,入力画像を第1および第2のフレーム条件として使用することにより,シームレスなループを強制する。
静的なトラックを条件付けすることで、静的なバックグラウンドを維持します。
最後に,対象物に対してユーザが指定した動作経路を提供することで,アニメーションの軌跡とタイミングを直感的に制御する。
私たちの知る限り、DreamLoopは、フレキシブルで直感的なコントロールを備えた一般的なシーンのためのシネマグラフ生成を可能にする最初の方法です。
提案手法は,ユーザ意図に整合した高品質で複雑なシネマグラフを製作し,既存手法よりも優れていることを示す。
関連論文リスト
- Time-to-Move: Training-Free Motion Controlled Video Generation via Dual-Clock Denoising [23.044483059783143]
拡散に基づくビデオ生成はリアルなビデオを生成することができるが、既存の画像やテキストベースの条件付けでは正確なモーションコントロールが得られない。
我々は、モーションおよび外観制御ビデオ生成のためのトレーニング不要なプラグイン・アンド・プレイフレームワークであるTime-to-Move (TTM)を紹介した。
論文 参考訳(メタデータ) (2025-11-09T22:47:50Z) - DreamJourney: Perpetual View Generation with Video Diffusion Models [91.88716097573206]
永続ビュー生成は、単一の入力画像からのみ任意のカメラ軌跡に対応する長期映像を合成することを目的としている。
近年の手法では、予め訓練されたテキスト・画像拡散モデルを用いて、カメラの動きに沿った未確認領域の新しいコンテンツを合成する。
本稿では,映像拡散モデルの世界シミュレーション能力を活用して,新たなシーンビュー生成タスクを起動する2段階フレームワークであるDreamJourneyを紹介する。
論文 参考訳(メタデータ) (2025-06-21T12:51:34Z) - Mobius: Text to Seamless Looping Video Generation via Latent Shift [50.04534295458244]
ユーザアノテーションを使わずにテキスト記述から直接シームレスにループするビデオを生成する新しい方法であるMobiusを提案する。
本手法では,事前学習したビデオ遅延拡散モデルを用いて,テキストプロンプトからループ映像を生成する。
論文 参考訳(メタデータ) (2025-02-27T17:33:51Z) - FramePainter: Endowing Interactive Image Editing with Video Diffusion Priors [64.54220123913154]
本稿では,画像から映像への効率のよい生成問題としてFramePainterを紹介した。
軽量のスパース制御エンコーダのみを使用して編集信号を注入する。
従来の最先端の手法をはるかに少ないトレーニングデータで上回ります。
論文 参考訳(メタデータ) (2025-01-14T16:09:16Z) - Fleximo: Towards Flexible Text-to-Human Motion Video Generation [17.579663311741072]
本稿では,参照画像と自然言語のみから人間のモーションビデオを生成するための新しいタスクを提案する。
本稿では,大規模事前学習型テキスト・ツー・3Dモーションモデルを利用したFleximoというフレームワークを提案する。
Fleximoの性能を評価するために、20のアイデンティティと20のモーションにわたる400の動画を含むMotionBenchという新しいベンチマークを導入した。
論文 参考訳(メタデータ) (2024-11-29T04:09:13Z) - Controllable Longer Image Animation with Diffusion Models [12.565739255499594]
動画拡散モデルを用いた動き先行画像を用いたオープンドメイン制御可能な画像アニメーション手法を提案する。
本手法は動画から運動場情報を抽出することにより移動領域の運動方向と速度を正確に制御する。
本稿では,画像アニメーションタスクに特化して最適化されたノイズ再スケジュールに基づく,効率的な長周期ビデオ生成手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:08:00Z) - VMC: Video Motion Customization using Temporal Attention Adaption for
Text-to-Video Diffusion Models [58.93124686141781]
Video Motion Customization (VMC) はビデオ拡散モデルに時間的注意層を適応させる新しいワンショットチューニング手法である。
本研究では, 連続するフレーム間の残留ベクトルを運動基準として用いた新しい運動蒸留法を提案する。
実世界のさまざまな動きや状況にまたがる最先端のビデオ生成モデルに対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-12-01T06:50:11Z) - Blowing in the Wind: CycleNet for Human Cinemagraphs from Still Images [58.67263739579952]
本稿では,1枚のRGB画像からヒトのシネマグラフを自動生成する手法を提案する。
提案手法の核となるのは,ループ長を目標とするループ型シネマグラフを生成する,新しいサイクリックニューラルネットワークである。
合成データと実データの両方で本手法を評価し, 単一のRGB画像から, 説得力のある, もっともらしいシネマグラフを作成できることを実証した。
論文 参考訳(メタデータ) (2023-03-15T14:09:35Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。