論文の概要: Contrastive Feature Loss for Image Prediction
- arxiv url: http://arxiv.org/abs/2111.06934v1
- Date: Fri, 12 Nov 2021 20:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:35:06.832897
- Title: Contrastive Feature Loss for Image Prediction
- Title(参考訳): 画像予測のための対比的特徴損失
- Authors: Alex Andonian, Taesung Park, Bryan Russell, Phillip Isola, Jun-Yan
Zhu, Richard Zhang
- Abstract要約: 教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
- 参考スコア(独自算出の注目度): 55.373404869092866
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training supervised image synthesis models requires a critic to compare two
images: the ground truth to the result. Yet, this basic functionality remains
an open problem. A popular line of approaches uses the L1 (mean absolute error)
loss, either in the pixel or the feature space of pretrained deep networks.
However, we observe that these losses tend to produce overly blurry and grey
images, and other techniques such as GANs need to be employed to fight these
artifacts. In this work, we introduce an information theory based approach to
measuring similarity between two images. We argue that a good reconstruction
should have high mutual information with the ground truth. This view enables
learning a lightweight critic to "calibrate" a feature space in a contrastive
manner, such that reconstructions of corresponding spatial patches are brought
together, while other patches are repulsed. We show that our formulation
immediately boosts the perceptual realism of output images when used as a
drop-in replacement for the L1 loss, with or without an additional GAN loss.
- Abstract(参考訳): 教師付き画像合成モデルのトレーニングには、批評家が2つの画像を比較する必要がある。
しかし、この基本的な機能はまだ未解決の問題だ。
一般的なアプローチの行は、L1損失(単に絶対誤差)を、事前訓練された深層ネットワークのピクセルまたは特徴空間で使用する。
しかし,これらの損失は過度にぼやけ,グレーな画像を生成する傾向にあり,ガンなどの技法はこれらの成果物と戦うために用いられる必要がある。
本研究では,2つの画像間の類似性を測定するための情報理論に基づく手法を提案する。
我々は、良い再構築は基礎的真理と高い相互情報を持つべきだと主張する。
この視点は、軽量な批評家が、対応する空間パッチの再構成をまとめ、他のパッチを撃退するような、対照的な方法で特徴空間を「校正」することができる。
我々の定式化は、L1損失のドロップイン代替として用いられる場合、出力画像の知覚的リアリズムを、追加のGAN損失の有無で即時向上させることを示す。
関連論文リスト
- Learning the Relation between Similarity Loss and Clustering Loss in
Self-Supervised Learning [27.91000553525992]
自己教師付き学習は、ネットワークが大量のデータから識別的特徴を学習することを可能にする。
類似度損失と特徴レベルのクロスエントロピー損失の関係を解析する。
これらの2つの損失の適切な組み合わせが、最先端の結果が得られることを示すための理論的分析と実験を提供する。
論文 参考訳(メタデータ) (2023-01-08T13:30:39Z) - CbwLoss: Constrained Bidirectional Weighted Loss for Self-supervised
Learning of Depth and Pose [13.581694284209885]
光度差は、未ラベルのモノクロビデオから深度とカメラのポーズを推定するためにニューラルネットワークを訓練するために使用される。
本稿では,アフィン変換とビュー合成によって生じる流れ場と深さ構造の違いを利用して,移動物体とオクルージョンを取り扱う。
ネットワークを追加することなく、より意味的な情報と文脈的な情報を持つ特徴の差を測定することにより、テクスチャレス領域がモデル最適化に与える影響を緩和する。
論文 参考訳(メタデータ) (2022-12-12T12:18:24Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Contrastive Unpaired Translation using Focal Loss for Patch
Classification [0.0]
コントラストアンペア翻訳は画像から画像への翻訳の新しい手法である。
本研究では,PatchNCE損失におけるクロスエントロピー損失の代わりに焦点損失を用いることで,モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-09-25T20:22:33Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - A Loss Function for Generative Neural Networks Based on Watson's
Perceptual Model [14.1081872409308]
変動オートエンコーダ(VAE)を訓練して現実的な画像を生成するには、画像類似性に対する人間の認識を反映する損失関数が必要である。
本稿では,周波数空間における重み付き距離を計算し,輝度とコントラストマスキングを考慮したWatsonの知覚モデルに基づく損失関数を提案する。
実験では、新しい損失関数で訓練されたVAEが、現実的で高品質な画像サンプルを生成した。
論文 参考訳(メタデータ) (2020-06-26T15:36:11Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。