論文の概要: Supervised and Unsupervised Learning of Parameterized Color Enhancement
- arxiv url: http://arxiv.org/abs/2001.05843v1
- Date: Mon, 30 Dec 2019 13:57:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 02:41:35.862854
- Title: Supervised and Unsupervised Learning of Parameterized Color Enhancement
- Title(参考訳): パラメータ化カラーエンハンスメントの教師あり・教師なし学習
- Authors: Yoav Chai, Raja Giryes, Lior Wolf
- Abstract要約: 我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
- 参考スコア(独自算出の注目度): 112.88623543850224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We treat the problem of color enhancement as an image translation task, which
we tackle using both supervised and unsupervised learning. Unlike traditional
image to image generators, our translation is performed using a global
parameterized color transformation instead of learning to directly map image
information. In the supervised case, every training image is paired with a
desired target image and a convolutional neural network (CNN) learns from the
expert retouched images the parameters of the transformation. In the unpaired
case, we employ two-way generative adversarial networks (GANs) to learn these
parameters and apply a circularity constraint. We achieve state-of-the-art
results compared to both supervised (paired data) and unsupervised (unpaired
data) image enhancement methods on the MIT-Adobe FiveK benchmark. Moreover, we
show the generalization capability of our method, by applying it on photos from
the early 20th century and to dark video frames.
- Abstract(参考訳): 色強調の問題を画像翻訳タスクとして扱い、教師なし学習と教師なし学習の両方を用いて取り組む。
従来の画像生成装置とは異なり、画像情報を直接マップするのではなく、グローバルなパラメータ化色変換を用いて翻訳を行う。
教師付きケースでは、各トレーニング画像が所望の目標画像とペアリングされ、専門家が修正した画像から変換のパラメータを畳み込みニューラルネットワーク(CNN)が学習する。
非ペアの場合、これらのパラメータを学習し、円度制約を適用するために2方向生成対向ネットワーク(GAN)を用いる。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果を得た。
さらに,20世紀前半の写真や暗黒ビデオフレームに適用することにより,本手法の一般化能力を示す。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Transformer-based Clipped Contrastive Quantization Learning for
Unsupervised Image Retrieval [15.982022297570108]
教師なし画像検索は、与えられたクエリ画像の類似画像を取得するために、任意のレベルなしに重要な視覚的特徴を学習することを目的としている。
本稿では,パッチベースの処理により局所的なコンテキストを持つTransformerを用いて,画像のグローバルコンテキストを符号化するTransClippedCLRモデルを提案する。
提案したクリップ付きコントラスト学習の結果は、バニラコントラスト学習と同一のバックボーンネットワークと比較して、すべてのデータセットで大幅に改善されている。
論文 参考訳(メタデータ) (2024-01-27T09:39:11Z) - Spectral Normalization and Dual Contrastive Regularization for
Image-to-Image Translation [9.029227024451506]
二重コントラスト正規化とスペクトル正規化に基づく新しい未ペアI2I翻訳フレームワークを提案する。
SN-DCRの有効性を評価するための総合的な実験を行い、本手法が複数のタスクにおいてSOTAを実現することを実証した。
論文 参考訳(メタデータ) (2023-04-22T05:22:24Z) - IR-GAN: Image Manipulation with Linguistic Instruction by Increment
Reasoning [110.7118381246156]
Incrment Reasoning Generative Adversarial Network (IR-GAN)は、画像における視覚的インクリメントと命令における意味的インクリメントとの整合性を推論することを目的としている。
まず,単語レベルと命令レベルの命令エンコーダを導入し,履歴関連命令からユーザの意図を意味的インクリメントとして学習する。
第2に、対象画像を生成するために、意味的インクリメントの表現をソースイメージに組み込んで、ソースイメージが補助的参照の役割を担っている。
論文 参考訳(メタデータ) (2022-04-02T07:48:39Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Dual Graph Convolutional Networks with Transformer and Curriculum
Learning for Image Captioning [26.496357517937614]
既存の画像キャプション手法は、単一のイメージ内のオブジェクトやインスタンスの関係を理解することだけに焦点を当てている。
画像キャプションのための変換器とカリキュラム学習を備えたデュアルグラフ畳み込みネットワーク(Dual-GCN)を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:57:06Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。