論文の概要: Generative Outpainting To Enhance the Memorability of Short-Form Videos
- arxiv url: http://arxiv.org/abs/2411.14213v1
- Date: Thu, 21 Nov 2024 15:24:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:18:56.537614
- Title: Generative Outpainting To Enhance the Memorability of Short-Form Videos
- Title(参考訳): 短いビデオの記憶力を高めるジェネレーティブなアウトペイント
- Authors: Alan Byju, Aman Sudhindra Ladwa, Lorin Sweeney, Alan F. Smeaton,
- Abstract要約: ビデオの記憶力は、ビデオが、そのコンテンツと感情的または個人的なつながりを持たない視聴者によって記憶される可能性を示している。
本稿では, 映像の画面サイズを拡大し, 記憶力の向上を図るために, 生成的露光を用いて, 映像の画面サイズを拡大した結果について述べる。
- 参考スコア(独自算出の注目度): 1.8020166013859684
- License:
- Abstract: With the expanding use of the short-form video format in advertising, social media, entertainment, education and more, there is a need for such media to both captivate and be remembered. Video memorability indicates to us how likely a video is to be remembered by a viewer who has no emotional or personal connection with its content. This paper presents the results of using generative outpainting to expand the screen size of a short-form video with a view to improving its memorability. Advances in machine learning and deep learning are compared and leveraged to understand how extending the borders of video screensizes can affect their memorability to viewers. Using quantitative evaluation we determine the best-performing model for outpainting and the impact of outpainting based on image saliency on video memorability scores
- Abstract(参考訳): 広告、ソーシャルメディア、エンターテイメント、教育などにおけるショートフォームビデオ形式の利用が拡大するにつれ、そのようなメディアを魅了し記憶する必要性が高まっている。
ビデオの記憶力は、ビデオが、そのコンテンツと感情的または個人的なつながりを持たない視聴者によって記憶される可能性を示している。
本稿では, 映像の画面サイズを拡大し, 記憶力の向上を図るために, 生成的露光を用いて, 映像の画面サイズを拡大した結果について述べる。
機械学習とディープラーニングの進歩は比較され、ビデオ画面サイズの拡張が視聴者の記憶にどのように影響するかを理解するために活用される。
定量的評価を用いて,映像の暗記性スコアに基づくアウトパインティングの最適性能モデルとアウトパインティングの影響を判定する。
関連論文リスト
- Divot: Diffusion Powers Video Tokenizer for Comprehension and Generation [54.21476271127356]
Divotは拡散駆動型ビデオトケナイザである。
我々は、ビデオからテキストへの自己回帰とテキストからビデオへの生成を通じてDivot-unaVicを提示する。
論文 参考訳(メタデータ) (2024-12-05T18:53:04Z) - Be-Your-Outpainter: Mastering Video Outpainting through Input-Specific Adaptation [44.92712228326116]
ビデオのアウトペイントは、入力されたビデオのビューポートの外でビデオコンテンツを生成することを目的とした、難しい作業である。
入力特化適応によるMOTIAマスタリングビデオアウトペイントについて紹介する。
MoTIAは入力特異的適応とパターン認識の露呈という2つの主要なフェーズから構成される。
論文 参考訳(メタデータ) (2024-03-20T16:53:45Z) - CustomVideo: Customizing Text-to-Video Generation with Multiple Subjects [61.323597069037056]
テキスト・ビデオ・ジェネレーションのパーソナライズへの現在のアプローチは、複数の課題に対処することに悩まされている。
複数の被験者の指導でアイデンティティ保存ビデオを生成する新しいフレームワークであるCustomVideoを提案する。
論文 参考訳(メタデータ) (2024-01-18T13:23:51Z) - DreamVideo: High-Fidelity Image-to-Video Generation with Image Retention and Text Guidance [69.0740091741732]
本研究では,DreamVideo という名前の事前学習ビデオ拡散モデルに基づくフレーム保持分岐を考案し,高忠実度映像生成手法を提案する。
我々のモデルには強力な画像保持能力があり、我々の知る限り、他の画像-映像モデルと比較して、UCF101で最高の結果をもたらす。
論文 参考訳(メタデータ) (2023-12-05T03:16:31Z) - Make Pixels Dance: High-Dynamic Video Generation [13.944607760918997]
最先端のビデオ生成手法は、高い忠実さを維持しつつも、最小限のモーションでビデオクリップを生成する傾向がある。
ビデオ生成のためのテキスト命令と合わせて,第1フレームと第2フレームの両方のイメージ命令を組み込んだ,新しいアプローチであるPixelDanceを紹介する。
論文 参考訳(メタデータ) (2023-11-18T06:25:58Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Using Saliency and Cropping to Improve Video Memorability [2.693646021803732]
ビデオの記憶可能性(英: Video memorability)とは、視聴者がビデオコンテンツと感情的なつながりを持たないときに、特定のビデオが視聴者によってどれだけ記憶されるかを示す尺度である。
本稿では,画像の鮮度に基づいてフレームを選択的にトリミングすることで,映像の記憶性を向上させる一連の実験結果を示す。
論文 参考訳(メタデータ) (2023-09-21T08:30:46Z) - Video Generation Beyond a Single Clip [76.5306434379088]
ビデオ生成モデルは、実際のビデオの長さと比較して比較的短いビデオクリップしか生成できない。
多様なコンテンツや複数のイベントをカバーした長いビデオを生成するために,ビデオ生成プロセスを制御するための追加のガイダンスを提案する。
提案手法は、固定時間ウィンドウ内でリアルな映像を生成することに焦点を当てた、既存の映像生成の取り組みを補完するものである。
論文 参考訳(メタデータ) (2023-04-15T06:17:30Z) - Broaden Your Views for Self-Supervised Video Learning [97.52216510672251]
ビデオのための自己教師型学習フレームワークBraVeを紹介する。
BraVeでは、ビューの1つがビデオの狭い一時的なウィンドウにアクセスでき、もう1つのビューはビデオコンテンツに広くアクセスできます。
BraVeが標準ビデオおよびオーディオ分類ベンチマークで自己監督表現学習の最先端の結果を達成することを実証します。
論文 参考訳(メタデータ) (2021-03-30T17:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。