論文の概要: A Deep Learning Approach for Digital ColorReconstruction of Lenticular
Films
- arxiv url: http://arxiv.org/abs/2202.05270v1
- Date: Thu, 10 Feb 2022 11:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 09:52:22.876394
- Title: A Deep Learning Approach for Digital ColorReconstruction of Lenticular
Films
- Title(参考訳): レンチキュラーフィルムのディジタル色再構成のための深層学習手法
- Authors: Stefano D'Aronco, Giorgio Trumpy, David Pfluger, Jan Dirk Wegner
- Abstract要約: レンチキュラー映画は1920年代に登場し、フルカラー情報をモーションで捉えることを許した最初の技術の一つとなった。
本研究では,レンチキュラーフィルムのスキャン処理とカラー化を行う自動化された完全ディジタルパイプラインを提案する。
提案手法は,再現されたカラー画像が符号化されたカラー情報と真に一致することを確認しながら,性能を最大化するために,ディープラーニングとモデルに基づくアプローチを融合する。
- 参考スコア(独自算出の注目度): 8.264186103325725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the first accurate digitization and color reconstruction process
for historical lenticular film that is robust to artifacts. Lenticular films
emerged in the 1920s and were one of the first technologies that permitted to
capture full color information in motion. The technology leverages an RGB
filter and cylindrical lenticules embossed on the film surface to encode the
color in the horizontal spatial dimension of the image. To project the pictures
the encoding process was reversed using an appropriate analog device. In this
work, we introduce an automated, fully digital pipeline to process the scan of
lenticular films and colorize the image. Our method merges deep learning with a
model-based approach in order to maximize the performance while making sure
that the reconstructed colored images truthfully match the encoded color
information. Our model employs different strategies to achieve an effective
color reconstruction, in particular (i) we use data augmentation to create a
robust lenticule segmentation network, (ii) we fit the lenticules raster
prediction to obtain a precise vectorial lenticule localization, and (iii) we
train a colorization network that predicts interpolation coefficients in order
to obtain a truthful colorization. We validate the proposed method on a
lenticular film dataset and compare it to other approaches. Since no colored
groundtruth is available as reference, we conduct a user study to validate our
method in a subjective manner. The results of the study show that the proposed
method is largely preferred with respect to other existing and baseline
methods.
- Abstract(参考訳): 人工物に頑健な歴史的レンチキュラーフィルムの正確なデジタル化と色復元プロセスを提案する。
レンチキュラー映画は1920年代に登場し、フルカラー情報をモーションで撮影できる最初の技術の一つとなった。
この技術は、フィルム表面に具現化されたrgbフィルタと円筒状のレンズを利用して、画像の水平空間次元の色をエンコードする。
画像を投影するために、適切なアナログ装置を用いて符号化プロセスを反転させた。
本研究では,レンチラーフィルムの走査処理とカラー化を行うための,自動化された全デジタルパイプラインを導入する。
本手法は,再現されたカラー画像が符号化されたカラー情報と真に一致することを確認しながら,性能を最大化するために,ディープラーニングとモデルに基づくアプローチを融合する。
我々のモデルは、特に効果的な色再現を実現するために異なる戦略を採用している。
(i)ロバストなレンズセグメンテーションネットワークを作成するためにデータ拡張を利用する。
(ii)レンチクルラスター予測に適合し、正確なベクトル状レンチクル局在を得る。
3) 真正な色付けを得るために, 補間係数を予測するカラー化ネットワークを訓練する。
提案手法をレンチキュラーフィルムデータセット上で検証し,他の手法と比較した。
カラーグラウンドトルースは参照できないため,本手法を主観的に検証するためのユーザスタディを実施している。
その結果,提案手法は他の既存法やベースライン法に比べて概ね好まれることがわかった。
関連論文リスト
- DreamColour: Controllable Video Colour Editing without Training [80.90808879991182]
直感的なインタフェースにより、正確な映像色編集を可能にする訓練不要のフレームワークを提案する。
色編集の空間的側面と時間的側面を分離することにより、ユーザの自然なワークフローをより良く整合させることができる。
当社のアプローチは、トレーニングや特別なハードウェアの必要性を排除しつつ、最先端の手法に適合または超越しています。
論文 参考訳(メタデータ) (2024-12-06T16:57:54Z) - Transforming Color: A Novel Image Colorization Method [8.041659727964305]
本稿では,色変換器とGANを用いた画像カラー化手法を提案する。
提案手法は,グローバルな情報を取得するためのトランスフォーマーアーキテクチャと,視覚的品質を改善するためのGANフレームワークを統合する。
実験の結果,提案するネットワークは,他の最先端のカラー化技術よりも優れていた。
論文 参考訳(メタデータ) (2024-10-07T07:23:42Z) - Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - Color Learning for Image Compression [1.2330326247154968]
本稿では,画像圧縮のタスクを2つのサブタスクに分割した新しいディープラーニングモデルアーキテクチャを提案する。
モデルは2つの別々の分岐を持ち、輝度と彩色成分を処理する。
このアプローチのメリットを実証し、パフォーマンスを他のコーデックと比較します。
論文 参考訳(メタデータ) (2023-06-30T08:16:48Z) - Video Colorization with Pre-trained Text-to-Image Diffusion Models [19.807766482434563]
ビデオカラー化のための事前訓練されたテキストから画像への潜時拡散モデルの適応であるColorDiffuserを提案する。
本稿では,時間的コヒーレンスを高め,フレーム間の色付けの鮮明さを維持するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T17:58:00Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Cross-Camera Deep Colorization [10.254243409261898]
本稿では,カラープラスモノデュアルカメラシステムからの画像の整列と融合を行う,エンドツーエンドの畳み込みニューラルネットワークを提案する。
提案手法は,約10dBPSNRゲインの大幅な改善を継続的に達成する。
論文 参考訳(メタデータ) (2022-08-26T11:02:14Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Image Colorization: A Survey and Dataset [94.59768013860668]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
我々は既存のデータセットと提案した画像の両方を用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。