論文の概要: CNNs for Style Transfer of Digital to Film Photography
- arxiv url: http://arxiv.org/abs/2411.15967v1
- Date: Sun, 24 Nov 2024 19:44:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:42.577312
- Title: CNNs for Style Transfer of Digital to Film Photography
- Title(参考訳): デジタル・フィルム・フォトグラフィーのためのCNN
- Authors: Pierre Mackenzie, Mika Senghaas, Raphael Achddou,
- Abstract要約: 我々は単純な畳み込みニューラルネットワークを用いてCinestill800Tフィルムをデジタル入力でモデル化する。
我々は、異なる損失関数の効果、入力ノイズチャネルの追加、トレーニング中のパッチのランダムスケールの使用について検証する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The use of deep learning in stylistic effect generation has seen increasing use over recent years. In this work, we use simple convolutional neural networks to model Cinestill800T film given a digital input. We test the effect of different loss functions, the addition of an input noise channel and the use of random scales of patches during training. We find that a combination of MSE/VGG loss gives the best colour production and that some grain can be produced, but it is not of a high quality, and no halation is produced. We contribute our dataset of aligned paired images taken with a film and digital camera for further work.
- Abstract(参考訳): 近年,スタイリスティック・エフェクト生成におけるディープラーニングの利用が増加傾向にある。
本研究では,Cinestill800T膜をデジタル入力でモデル化するために,単純な畳み込みニューラルネットワークを用いる。
我々は、異なる損失関数の効果、入力ノイズチャネルの追加、トレーニング中のパッチのランダムスケールの使用について検証する。
MSE/VGGの損失と組み合わせることで、最高の色生産が可能であり、一部の穀物を生産できるが、高品質ではないため、ハレーションは発生しない。
我々は、フィルムとデジタルカメラで撮影された整列した画像のデータセットを、さらなる作業のために提供します。
関連論文リスト
- Combining Pre- and Post-Demosaicking Noise Removal for RAW Video [2.772895608190934]
Denoisingは、カメラセンサーが捉えたデータをディスプレイ対応の画像やビデオに変換する処理パイプラインの基本ステップの1つである。
本研究では,ベイアパターンのCFAビデオデータに対して,事前および復号化後のデノイザを重み付けする自己相似型デノイザ方式を提案する。
両者のバランスが画像品質の向上につながることを示し、高ノイズレベルがより高影響のプレデモーザックの恩恵を受けることを実証的に見出した。
論文 参考訳(メタデータ) (2024-10-03T15:20:19Z) - Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Sharp-NeRF: Grid-based Fast Deblurring Neural Radiance Fields Using
Sharpness Prior [4.602333448154979]
Sharp-NeRFは、30分以内のトレーニングで入力されたぼやけた画像からクリーンでシャープな画像をレンダリングするテクニックである。
我々は、ぼやけた画像からなるベンチマーク実験を行い、全参照および非参照メトリクスを評価した。
提案手法では,鮮明な色と細かな細部を持つシャープな新鮮なビューを描画する。
論文 参考訳(メタデータ) (2024-01-01T17:48:38Z) - Online Overexposed Pixels Hallucination in Videos with Adaptive
Reference Frame Selection [90.35085487641773]
低ダイナミックレンジ(LDR)カメラは広いダイナミックレンジ入力に対応できず、しばしば局所的な露出問題を引き起こす。
複雑な処理機構を使わずにこれらの成果物を削減できる学習ベースシステムを提案する。
論文 参考訳(メタデータ) (2023-08-29T17:40:57Z) - Neural Image Re-Exposure [86.42475408644822]
不適切なシャッターは、ぼやけた画像、ビデオの不連続、あるいはローリングシャッターアーティファクトにつながる可能性がある。
ニューラルネットワークに基づく画像再露法フレームワークを提案する。
視覚的潜在空間構築のためのエンコーダ、所望のシャッター戦略でニューラルフィルムに情報を集約する再露光モジュール、およびニューラルフィルムを所望の画像に「展開」するためのデコーダから構成される。
論文 参考訳(メタデータ) (2023-05-23T01:55:37Z) - A Large-scale Film Style Dataset for Learning Multi-frequency Driven
Film Enhancement [41.01490235645957]
フィルム写真は時間がかかり高価であり、フィルムスタイルの写真を集めるためのより効率的な方法が必要である。
大規模で高品質なフィルムスタイルのデータセットであるFilmSetを構築した。
そこで本研究では,FilmSet画像の特徴に触発されて,周波数帯域にまたがる画像をスタイリングするFilmNetという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-21T03:52:35Z) - Human Mesh Recovery from Multiple Shots [85.18244937708356]
疑似地上真理3Dヒューマンメッシュを用いた長期シーケンスの3次元再構築とマイニングの改善のためのフレームワークを提案する。
得られたデータは,様々なメッシュ回復モデルのトレーニングに有用であることを示す。
編集メディアの大規模なライブラリーから3Dコンテンツを処理・分析するための扉を開くツールを開発した。
論文 参考訳(メタデータ) (2020-12-17T18:58:02Z) - Self-Adaptively Learning to Demoire from Focused and Defocused Image
Pairs [97.67638106818613]
モアレアーティファクトはデジタル写真では一般的であり、高周波シーンコンテンツとカメラのカラーフィルタアレイとの干渉によるものである。
大規模反復で訓練された既存のディープラーニングに基づく復習手法は、様々な複雑なモアレパターンを扱う場合に限られる。
本稿では,高頻度画像の復調のための自己適応学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T23:09:02Z) - Reducing the Sim-to-Real Gap for Event Cameras [64.89183456212069]
イベントカメラは、非同期でピクセルごとの明るさ変化を報告し、非並列の低レイテンシで「イベント」と呼ばれるパラダイムシフトする新しいセンサーである。
近年の研究では、コンボリューショナルニューラルネットワーク(CNN)を用いて、映像再構成とイベントによる光学的流れを実証している。
既存のビデオ再構成ネットワークの性能を20~40%向上させるイベントベースCNNのトレーニングデータ改善戦略を提案する。
論文 参考訳(メタデータ) (2020-03-20T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。