論文の概要: Analysis of Different Losses for Deep Learning Image Colorization
- arxiv url: http://arxiv.org/abs/2204.02980v1
- Date: Wed, 6 Apr 2022 14:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:37:52.616173
- Title: Analysis of Different Losses for Deep Learning Image Colorization
- Title(参考訳): 深層学習画像のカラー化における異なる損失の分析
- Authors: Coloma Ballester, Aur\'elie Bugeau, Hernan Carrillo, Micha\"el
Cl\'ement, R\'emi Giraud, Lara Raad, Patricia Vitoria
- Abstract要約: 色度推定結果に対する損失関数の影響を解析した。
レビュー対象関数のいくつかをベースラインネットワークでトレーニングする。
その結果,VGGをベースとしたLPIPSでトレーニングしたモデルでは,ほとんどの評価指標に対して総合的に若干よい結果が得られた。
- 参考スコア(独自算出の注目度): 2.3705923859070217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image colorization aims to add color information to a grayscale image in a
realistic way. Recent methods mostly rely on deep learning strategies. While
learning to automatically colorize an image, one can define well-suited
objective functions related to the desired color output. Some of them are based
on a specific type of error between the predicted image and ground truth one,
while other losses rely on the comparison of perceptual properties. But, is the
choice of the objective function that crucial, i.e., does it play an important
role in the results? In this chapter, we aim to answer this question by
analyzing the impact of the loss function on the estimated colorization
results. To that goal, we review the different losses and evaluation metrics
that are used in the literature. We then train a baseline network with several
of the reviewed objective functions: classic L1 and L2 losses, as well as more
complex combinations such as Wasserstein GAN and VGG-based LPIPS loss.
Quantitative results show that the models trained with VGG-based LPIPS provide
overall slightly better results for most evaluation metrics. Qualitative
results exhibit more vivid colors when with Wasserstein GAN plus the L2 loss or
again with the VGG-based LPIPS. Finally, the convenience of quantitative user
studies is also discussed to overcome the difficulty of properly assessing on
colorized images, notably for the case of old archive photographs where no
ground truth is available.
- Abstract(参考訳): 画像のカラー化は、現実的な方法でグレースケール画像に色情報を追加することを目的としている。
最近の手法は主にディープラーニング戦略に依存している。
画像の自動色付けを学習しながら、所望の色出力に関連する目的関数を適切に定義することができる。
それらのいくつかは、予測された画像と地上の真実の間の特定のタイプのエラーに基づいているが、他の損失は知覚特性の比較に依存する。
しかし、目的関数の選択は、すなわち、結果において重要な役割を担っているのだろうか?
本章では,色度推定結果に対する損失関数の影響を分析することにより,この問題に対処することを目的とする。
その目的のために、文献で使用されるさまざまな損失と評価指標についてレビューする。
次に、古典的なL1とL2の損失と、Wasserstein GANやVGGベースのLPIPSの損失といったより複雑な組み合わせを含む、いくつかの評価対象関数を持つベースラインネットワークをトレーニングする。
その結果,VGGをベースとしたLPIPSでトレーニングしたモデルでは,ほとんどの評価指標に対して総合的に若干よい結果が得られた。
定性的結果は、Wasserstein GANとL2の損失、あるいはVGGベースのLPIPSでより鮮やかな色を示す。
最後に, 定量的ユーザ研究の便利さについても考察し, 基礎的真理が得られない古いアーカイブ写真の場合など, カラー画像の適正な評価の難しさを克服した。
関連論文リスト
- ParaColorizer: Realistic Image Colorization using Parallel Generative
Networks [1.7778609937758327]
グレースケール画像のカラー化は、情報復元のためのAIの魅力的な応用である。
並列なGANベースのカラー化フレームワークを提案する。
マルチモーダル問題を評価するために一般的に使用される非知覚的評価指標の欠点を示す。
論文 参考訳(メタデータ) (2022-08-17T13:49:44Z) - Do Different Deep Metric Learning Losses Lead to Similar Learned
Features? [4.043200001974071]
最近の研究では、14の事前学習モデルを比較し、すべてのモデルが同様に機能するにもかかわらず、異なる損失関数がモデルに異なる特徴を学習させることができることを発見した。
また,本分析の結果から,一見無関係な性質が埋没に重大な影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-05T15:07:19Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Influence of Color Spaces for Deep Learning Image Colorization [2.3705923859070217]
既存のカラー化手法は、RGB、YUV、Labなど、さまざまな色空間に依存している。
本章では,深層ニューラルネットワークのトレーニングによって得られる結果に対する影響について検討する。
RGB,YUV,Labの色空間と同一の深層ニューラルネットワークアーキテクチャを用いて得られた結果を比較した。
論文 参考訳(メタデータ) (2022-04-06T14:14:07Z) - Contrastive Feature Loss for Image Prediction [55.373404869092866]
教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T20:39:52Z) - Palette: Image-to-Image Diffusion Models [50.268441533631176]
我々は条件付き拡散モデルを用いた画像から画像への変換のためのシンプルで一般的なフレームワークであるPaletteを紹介する。
4つの困難な画像から画像への変換タスクにおいて、Paletteは強力なGANと回帰ベースラインを上回っている。
本稿では、FID、インセプションスコア、事前訓練されたResNet-50の分類精度、参照画像に対する知覚距離などのサンプル品質スコアについて報告する。
論文 参考訳(メタデータ) (2021-11-10T17:49:29Z) - Computer-aided Interpretable Features for Leaf Image Classification [0.0]
52種類の植物を分類するための計算効率の良い特徴を紹介する。
長さ、幅、面積、テクスチャの相関、単調性、発癌性は少ない。
その結果,教師付き学習環境と教師なし学習環境の両方において,興味のクラスを識別するのに十分な特徴があることが示唆された。
論文 参考訳(メタデータ) (2021-06-15T12:11:10Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。