論文の概要: Projected Distribution Loss for Image Enhancement
- arxiv url: http://arxiv.org/abs/2012.09289v1
- Date: Wed, 16 Dec 2020 22:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 02:49:57.291641
- Title: Projected Distribution Loss for Image Enhancement
- Title(参考訳): 画像強調のための投影分布損失
- Authors: Mauricio Delbracio, Hossein Talebi, Peyman Milanfar
- Abstract要約: CNNアクティベーション間の1D-ワッサースタイン距離の集約は,既存の手法よりも信頼性が高いことを示す。
デノイジング、スーパーレゾリューション、復号化、デブレーション、JPEGアーティファクト除去などのイメージングアプリケーションでは、提案された学習損失は、参照ベースの知覚的損失に関する現在の最先端のものを上回る。
- 参考スコア(独自算出の注目度): 15.297569497776374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Features obtained from object recognition CNNs have been widely used for
measuring perceptual similarities between images. Such differentiable metrics
can be used as perceptual learning losses to train image enhancement models.
However, the choice of the distance function between input and target features
may have a consequential impact on the performance of the trained model. While
using the norm of the difference between extracted features leads to limited
hallucination of details, measuring the distance between distributions of
features may generate more textures; yet also more unrealistic details and
artifacts. In this paper, we demonstrate that aggregating 1D-Wasserstein
distances between CNN activations is more reliable than the existing
approaches, and it can significantly improve the perceptual performance of
enhancement models. More explicitly, we show that in imaging applications such
as denoising, super-resolution, demosaicing, deblurring and JPEG artifact
removal, the proposed learning loss outperforms the current state-of-the-art on
reference-based perceptual losses. This means that the proposed learning loss
can be plugged into different imaging frameworks and produce perceptually
realistic results.
- Abstract(参考訳): 物体認識cnnから得られた特徴は画像間の知覚的類似性を測定するために広く用いられている。
このような差別化可能なメトリクスは、イメージ拡張モデルをトレーニングするために知覚学習損失として使用できる。
しかし,入力特徴と対象特徴との間の距離関数の選択は,訓練されたモデルの性能に連続的に影響する可能性がある。
抽出された特徴間の差異の基準を用いると詳細の幻覚は限定されるが、特徴の分布間の距離を測定するとテクスチャが増え、さらに非現実的な詳細やアーティファクトも生まれる。
本稿では,cnnアクティベーション間の1d-wasserstein距離の集約が,既存の手法よりも信頼性が高く,拡張モデルの知覚性能を大幅に向上できることを示す。
より具体的には、デノイング、超解像、デモサイシング、デブロアリング、JPEGアーティファクト除去などの画像アプリケーションにおいて、提案した学習損失は、参照に基づく知覚的損失に対する現在の最先端よりも優れていることを示す。
つまり、提案された学習損失を異なるイメージングフレームワークにプラグインし、知覚的に現実的な結果を生成することができる。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
本稿では,新しいインスタンス識別手法と適応型損失関数を用いた表現学習における意味的特徴の解消を目的としたフレームワークであるLeOCLRを紹介する。
我々のアプローチは、ベースラインモデルと比較して、異なるデータセット間の表現学習を一貫して改善します。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - CbwLoss: Constrained Bidirectional Weighted Loss for Self-supervised
Learning of Depth and Pose [13.581694284209885]
光度差は、未ラベルのモノクロビデオから深度とカメラのポーズを推定するためにニューラルネットワークを訓練するために使用される。
本稿では,アフィン変換とビュー合成によって生じる流れ場と深さ構造の違いを利用して,移動物体とオクルージョンを取り扱う。
ネットワークを追加することなく、より意味的な情報と文脈的な情報を持つ特徴の差を測定することにより、テクスチャレス領域がモデル最適化に与える影響を緩和する。
論文 参考訳(メタデータ) (2022-12-12T12:18:24Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Do Different Deep Metric Learning Losses Lead to Similar Learned
Features? [4.043200001974071]
最近の研究では、14の事前学習モデルを比較し、すべてのモデルが同様に機能するにもかかわらず、異なる損失関数がモデルに異なる特徴を学習させることができることを発見した。
また,本分析の結果から,一見無関係な性質が埋没に重大な影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-05T15:07:19Z) - Enhancing Photorealism Enhancement [83.88433283714461]
本稿では,畳み込みネットワークを用いた合成画像のリアリズム向上手法を提案する。
一般的に使用されるデータセットのシーンレイアウトの分布を分析し、重要な方法で異なることを見つけます。
近年のイメージ・ツー・イメージ翻訳法と比較して,安定性とリアリズムの大幅な向上が報告されている。
論文 参考訳(メタデータ) (2021-05-10T19:00:49Z) - Generic Perceptual Loss for Modeling Structured Output Dependencies [78.59700528239141]
トレーニングされた重みではなく、ネットワーク構造が重要であることを示す。
我々は、出力の構造化依存関係をモデル化するためにランダムに重み付けされたディープcnnが使用できることを実証する。
論文 参考訳(メタデータ) (2021-03-18T23:56:07Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Image Super-Resolution using Explicit Perceptual Loss [17.2448277365841]
生成した画像の知覚スコアを提供するために直接訓練された機械学習モデルを利用する方法を示す。
実験の結果、明示的なアプローチは他のアプローチよりも知覚スコアが高いことが示された。
論文 参考訳(メタデータ) (2020-09-01T12:22:39Z) - A Loss Function for Generative Neural Networks Based on Watson's
Perceptual Model [14.1081872409308]
変動オートエンコーダ(VAE)を訓練して現実的な画像を生成するには、画像類似性に対する人間の認識を反映する損失関数が必要である。
本稿では,周波数空間における重み付き距離を計算し,輝度とコントラストマスキングを考慮したWatsonの知覚モデルに基づく損失関数を提案する。
実験では、新しい損失関数で訓練されたVAEが、現実的で高品質な画像サンプルを生成した。
論文 参考訳(メタデータ) (2020-06-26T15:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。