論文の概要: Improved Algorithm for Seamlessly Creating Infinite Loops from a Video
Clip, while Preserving Variety in Textures
- arxiv url: http://arxiv.org/abs/2011.02579v1
- Date: Wed, 4 Nov 2020 23:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 22:42:23.968540
- Title: Improved Algorithm for Seamlessly Creating Infinite Loops from a Video
Clip, while Preserving Variety in Textures
- Title(参考訳): テクスチャの多様性を維持しつつビデオクリップから無限ループをシームレスに生成する改良アルゴリズム
- Authors: Kunjal Panchal
- Abstract要約: このプロジェクトは、Szeliski氏の論文“Video Textures”を実装している。
目的は、”Moving Picture”や、一般的には“GIF”と呼ぶものを作ることです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This project implements the paper "Video Textures" by Szeliski. The aim is to
create a "Moving Picture" or as we popularly call it, a GIF; which is
"somewhere between a photograph and a video". The idea is to input a video
which has some repeated motion (the texture), such as a flag waving, rain, or a
candle flame. The output is a new video that infinitely extends the original
video in a seamless way. In practice, the output isn't really infinte, but is
instead looped using a video player and is sufficiently long as to appear to
never repeat.
Our goal from this implementation was to: improve distance metric by
switching from a crude sum of squared distance to most sophisticated
wavelet-based distance; add intensity normalization, cross-fading and morphing
to the suggested basic algorithm. We also experiment on the trade-off between
variety and smoothness.
- Abstract(参考訳): このプロジェクトはSzeliski氏の論文“Video Textures”を実装している。
その目的は「動画」や「gif」と呼ばれるものを作ることであり、これは「写真とビデオの中間にある場所」である。
旗を振ったり、雨を振ったり、ろうそくの炎を鳴らしたりするなど、繰り返し動く(テクスチャ)ビデオを入力するのが目的だ。
出力は、オリジナルのビデオをシームレスに無限に拡張する新しいビデオだ。
実際には出力は無限ではなく、代わりにビデオプレーヤーを使ってループされ、決して繰り返されないほどの長さです。
本実装の目的は,2乗距離の粗和から最も洗練されたウェーブレット距離に切り替えることによる距離測定の改善であり,提案する基本アルゴリズムに強度正規化,クロスフェイディング,モーフィングを加えることである。
また,多様性と滑らかさのトレードオフについても実験を行った。
関連論文リスト
- SmoothVideo: Smooth Video Synthesis with Noise Constraints on Diffusion
Models for One-shot Video Tuning [18.979299814757997]
ワンショットビデオチューニング手法は、不整合と不整合によってマージされたビデオを生成する。
本稿では,ビデオフレーム間の簡易かつ効果的なノイズ制約を提案する。
既存のワンショットビデオチューニング手法にロスを適用することで、生成されたビデオの全体的な一貫性と滑らかさを大幅に改善する。
論文 参考訳(メタデータ) (2023-11-29T11:14:43Z) - MoVideo: Motion-Aware Video Generation with Diffusion Models [97.03352319694795]
本稿では,映像深度と光フローの2つの側面から動きを考慮に入れたモーションアウェア・ジェネレーション(MoVideo)フレームワークを提案する。
MoVideoは、テキスト・トゥ・ビデオと画像・トゥ・ビデオ生成の両方で最先端の結果を達成し、期待できる即時一貫性、フレームの整合性、視覚的品質を示す。
論文 参考訳(メタデータ) (2023-11-19T13:36:03Z) - Hashing Neural Video Decomposition with Multiplicative Residuals in
Space-Time [14.015909536844337]
本稿では,時間的に異なる照明効果を持つ映像の階層的編集を容易にする映像分解手法を提案する。
本手法は,座標ハッシュを用いて1フレームあたり25秒で1080pビデオの層ベースニューラル表現を効率よく学習する。
本稿では,映像編集の一貫性を客観的に評価するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:36:14Z) - Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video
Generators [70.17041424896507]
最近のテキスト・ビデオ生成アプローチは、計算的に重いトレーニングに依存し、大規模なビデオデータセットを必要とする。
既存のテキスト・画像合成手法を用いたゼロショットテキスト・ビデオ生成の課題を提案する。
本手法は,ビデオデータ追加の訓練を受けていないにも関わらず,近年の手法よりも多種多種多種多種多種多種多種多種多種多様である。
論文 参考訳(メタデータ) (2023-03-23T17:01:59Z) - 3D Video Loops from Asynchronous Input [22.52716577813998]
ループ動画は短いビデオクリップで、目に見えるシームやアーティファクトを使わずに無限にループできる。
本稿では,動的3次元ループシーンにおける没入型体験を実現するための実用的なソリューションを提案する。
このフレームワークの実験では,モバイルデバイス上でもリアルタイムに3Dループビデオの生成とレンダリングを成功させる可能性が示された。
論文 参考訳(メタデータ) (2023-03-09T15:00:12Z) - Strumming to the Beat: Audio-Conditioned Contrastive Video Textures [112.6140796961121]
コントラスト学習を通して学習した表現を用いた無限ビデオテクスチャ合成のための非パラメトリック手法を提案する。
ビデオテクスチャから着想を得た結果、新しいビデオは1つのビデオから、新しくて一貫性のある順序でフレームを縫い合わせることで生成できることがわかった。
我々のモデルは人間の知覚スコアのベースラインを上回り、多様な入力ビデオを扱うことができ、音声信号とよく同期する映像を合成するために意味と音声の視覚的手がかりを組み合わせることができる。
論文 参考訳(メタデータ) (2021-04-06T17:24:57Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Layered Neural Rendering for Retiming People in Video [108.85428504808318]
そこで本研究では,通常の自然ビデオで人々をリタイピングする手法を提案する。
異なる動きを時間的に調整したり、特定の動作の速度を変更したり、選択した人々をビデオから完全に「排除」したりできます。
このモデルの主な特徴は、入力ビデオ中の各人物の直接の動きを分離するだけでなく、各人物が生成するシーンの変化と自動的に関連付けることである。
論文 参考訳(メタデータ) (2020-09-16T17:48:26Z) - Everybody's Talkin': Let Me Talk as You Want [134.65914135774605]
本稿では,写真リアルな映像を合成するために,音声のシーケンスを入力とし,対象の肖像画を編集する手法を提案する。
任意のソースオーディオを任意のビデオ出力に変換することのできる、個人固有のレンダリングネットワークを前提としない。
論文 参考訳(メタデータ) (2020-01-15T09:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。