論文の概要: A Large-scale Film Style Dataset for Learning Multi-frequency Driven
Film Enhancement
- arxiv url: http://arxiv.org/abs/2301.08880v3
- Date: Fri, 3 Nov 2023 13:18:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 18:32:57.664565
- Title: A Large-scale Film Style Dataset for Learning Multi-frequency Driven
Film Enhancement
- Title(参考訳): 多周波フィルム強調学習のための大規模フィルムスタイルデータセット
- Authors: Zinuo Li, Xuhang Chen, Shuqiang Wang, Chi-Man Pun
- Abstract要約: フィルム写真は時間がかかり高価であり、フィルムスタイルの写真を集めるためのより効率的な方法が必要である。
大規模で高品質なフィルムスタイルのデータセットであるFilmSetを構築した。
そこで本研究では,FilmSet画像の特徴に触発されて,周波数帯域にまたがる画像をスタイリングするFilmNetという新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.01490235645957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Film, a classic image style, is culturally significant to the whole
photographic industry since it marks the birth of photography. However, film
photography is time-consuming and expensive, necessitating a more efficient
method for collecting film-style photographs. Numerous datasets that have
emerged in the field of image enhancement so far are not film-specific. In
order to facilitate film-based image stylization research, we construct
FilmSet, a large-scale and high-quality film style dataset. Our dataset
includes three different film types and more than 5000 in-the-wild high
resolution images. Inspired by the features of FilmSet images, we propose a
novel framework called FilmNet based on Laplacian Pyramid for stylizing images
across frequency bands and achieving film style outcomes. Experiments reveal
that the performance of our model is superior than state-of-the-art techniques.
The link of code and data is \url{https://github.com/CXH-Research/FilmNet}.
- Abstract(参考訳): 古典的なイメージスタイルであるフィルムは、写真産業全体にとって文化的に重要なものである。
しかし、フィルム写真は時間がかかり高価であり、より効率的なフィルム写真の収集方法が必要である。
これまで画像強調の分野で現れた多くのデータセットは、フィルム固有のものではない。
フィルムベースの画像スタイリング研究を容易にするため,大規模かつ高品質なフィルムスタイルデータセットであるFilmSetを構築した。
我々のデータセットには3つの異なるフィルムタイプと5000以上の高解像度画像が含まれている。
フィルムセット画像の特徴に触発されて,ラプラシアンピラミッドに基づく新たな枠組みである filmnet を提案する。
実験の結果,我々のモデルの性能は最先端技術よりも優れていることがわかった。
コードとデータのリンクは \url{https://github.com/CXH-Research/FilmNet} である。
関連論文リスト
- MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence [62.72540590546812]
MovieDreamerは、自己回帰モデルの強みと拡散ベースのレンダリングを統合する、新しい階層的なフレームワークである。
様々な映画ジャンルにまたがって実験を行い、そのアプローチが優れた視覚的・物語的品質を実現することを示す。
論文 参考訳(メタデータ) (2024-07-23T17:17:05Z) - NPF-200: A Multi-Modal Eye Fixation Dataset and Method for
Non-Photorealistic Videos [51.409547544747284]
NPF-200は、視線を固定した純粋にフォトリアリスティックでないビデオの大規模なマルチモーダルデータセットである。
私たちは一連の分析を行い、このタスクについてより深い洞察を得ます。
NPSNetと呼ばれる広帯域周波数対応マルチモーダル非フォトリアリスティックサリエンシ検出モデルを提案する。
論文 参考訳(メタデータ) (2023-08-23T14:25:22Z) - MovieFactory: Automatic Movie Creation from Text using Large Generative
Models for Language and Images [92.13079696503803]
映画制作のためのフレームワークであるMovieFactory(3072$times$1280)、映画スタイル(マルチシーン)、マルチモーダル(サウンド)映画について紹介する。
本手法は,簡単なテキスト入力を用いて,スムーズなトランジションでキャプティベーション映画を制作することを可能にする。
論文 参考訳(メタデータ) (2023-06-12T17:31:23Z) - Movies2Scenes: Using Movie Metadata to Learn Scene Representation [8.708989357658501]
本稿では,映画メタデータを用いて汎用シーン表現を学習する新しいコントラスト学習手法を提案する。
具体的には、映画のメタデータを用いて、映画の類似度を定義し、対照的な学習中にそれを使って、ポジティブなシーンペアの検索を制限する。
学習シーンの表現は、複数のベンチマークデータセットを用いて評価されたタスクの多種多様なセットにおいて、既存の最先端メソッドよりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-22T03:31:33Z) - A Deep Learning Approach for Digital ColorReconstruction of Lenticular
Films [8.264186103325725]
レンチキュラー映画は1920年代に登場し、フルカラー情報をモーションで捉えることを許した最初の技術の一つとなった。
本研究では,レンチキュラーフィルムのスキャン処理とカラー化を行う自動化された完全ディジタルパイプラインを提案する。
提案手法は,再現されたカラー画像が符号化されたカラー情報と真に一致することを確認しながら,性能を最大化するために,ディープラーニングとモデルに基づくアプローチを融合する。
論文 参考訳(メタデータ) (2022-02-10T11:08:50Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z) - Condensed Movies: Story Based Retrieval with Contextual Embeddings [83.73479493450009]
我々は3K映画の主要シーンからなるコンデンサド映画データセット(CMD)を作成する。
データセットはスケーラブルで、YouTubeから自動的に取得され、誰でもダウンロードして利用できる。
我々は、文字、音声、視覚的手がかりを1つのビデオ埋め込みに組み合わせ、データセット上でテキストからビデオまでを検索するためのディープネットワークベースラインを提供する。
論文 参考訳(メタデータ) (2020-05-08T17:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。