論文の概要: A Loss Function for Generative Neural Networks Based on Watson's
Perceptual Model
- arxiv url: http://arxiv.org/abs/2006.15057v3
- Date: Wed, 6 Jan 2021 11:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 20:45:36.182736
- Title: A Loss Function for Generative Neural Networks Based on Watson's
Perceptual Model
- Title(参考訳): watsonの知覚モデルに基づく生成ニューラルネットワークの損失関数
- Authors: Steffen Czolbe, Oswin Krause, Ingemar Cox, Christian Igel
- Abstract要約: 変動オートエンコーダ(VAE)を訓練して現実的な画像を生成するには、画像類似性に対する人間の認識を反映する損失関数が必要である。
本稿では,周波数空間における重み付き距離を計算し,輝度とコントラストマスキングを考慮したWatsonの知覚モデルに基づく損失関数を提案する。
実験では、新しい損失関数で訓練されたVAEが、現実的で高品質な画像サンプルを生成した。
- 参考スコア(独自算出の注目度): 14.1081872409308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To train Variational Autoencoders (VAEs) to generate realistic imagery
requires a loss function that reflects human perception of image similarity. We
propose such a loss function based on Watson's perceptual model, which computes
a weighted distance in frequency space and accounts for luminance and contrast
masking. We extend the model to color images, increase its robustness to
translation by using the Fourier Transform, remove artifacts due to splitting
the image into blocks, and make it differentiable. In experiments, VAEs trained
with the new loss function generated realistic, high-quality image samples.
Compared to using the Euclidean distance and the Structural Similarity Index,
the images were less blurry; compared to deep neural network based losses, the
new approach required less computational resources and generated images with
less artifacts.
- Abstract(参考訳): 変動オートエンコーダ(VAE)を訓練して現実的な画像を生成するには、画像類似性の人間の知覚を反映する損失関数が必要である。
本稿では,周波数空間における重み付き距離を計算し,輝度とコントラストマスキングを考慮したWatsonの知覚モデルに基づく損失関数を提案する。
カラー画像にモデルを拡張し、フーリエ変換を用いてそのロバスト性を高め、画像をブロックに分割してアーチファクトを除去し、それを識別可能にする。
実験では、新しい損失関数で訓練されたvaesが、リアルで高品質な画像サンプルを生成した。
ユークリッド距離や構造類似度指数と比較すると、画像のぼやけは少なく、ディープニューラルネットワークによる損失に比べ、新しいアプローチでは計算リソースの削減と、アーティファクトの少ない生成イメージが必要になった。
関連論文リスト
- Equipping Diffusion Models with Differentiable Spatial Entropy for Low-Light Image Enhancement [7.302792947244082]
本研究では,決定論的画素間比較から統計的視点へ焦点を移す新しい手法を提案する。
中心となる考え方は、損失関数に空間エントロピーを導入して、予測と目標の分布差を測定することである。
具体的には,拡散モデルにエントロピーを装備し,L1ベースノイズマッチング損失よりも高精度で知覚品質の向上を図っている。
論文 参考訳(メタデータ) (2024-04-15T12:35:10Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Restormer: Efficient Transformer for High-Resolution Image Restoration [118.9617735769827]
畳み込みニューラルネットワーク(CNN)は、大規模データから一般化可能な画像の事前学習をうまく行う。
トランスフォーマーは、自然言語とハイレベルな視覚タスクにおいて、顕著なパフォーマンス向上を示している。
我々のモデルであるRecovery Transformer (Restormer) は、いくつかの画像復元タスクにおいて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-18T18:59:10Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z) - Projected Distribution Loss for Image Enhancement [15.297569497776374]
CNNアクティベーション間の1D-ワッサースタイン距離の集約は,既存の手法よりも信頼性が高いことを示す。
デノイジング、スーパーレゾリューション、復号化、デブレーション、JPEGアーティファクト除去などのイメージングアプリケーションでは、提案された学習損失は、参照ベースの知覚的損失に関する現在の最先端のものを上回る。
論文 参考訳(メタデータ) (2020-12-16T22:13:03Z) - Exploring Intensity Invariance in Deep Neural Networks for Brain Image
Registration [0.0]
深層学習に基づく画像登録における入力画像対間の強度分布の影響について検討する。
構造的類似性に基づく損失をトレーニングしたディープラーニングモデルは、両方のデータセットでよりよく機能しているようだ。
論文 参考訳(メタデータ) (2020-09-21T17:49:03Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。