論文の概要: Contrastive Unpaired Translation using Focal Loss for Patch
Classification
- arxiv url: http://arxiv.org/abs/2109.12431v1
- Date: Sat, 25 Sep 2021 20:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 08:19:00.635938
- Title: Contrastive Unpaired Translation using Focal Loss for Patch
Classification
- Title(参考訳): Patch 分類におけるFocal Loss を用いたコントラストアンペア翻訳
- Authors: Bernard Spiegl
- Abstract要約: コントラストアンペア翻訳は画像から画像への翻訳の新しい手法である。
本研究では,PatchNCE損失におけるクロスエントロピー損失の代わりに焦点損失を用いることで,モデルの性能が向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-to-image translation models transfer images from input domain to output
domain in an endeavor to retain the original content of the image. Contrastive
Unpaired Translation is one of the existing methods for solving such problems.
Significant advantage of this method, compared to competitors, is the ability
to train and perform well in cases where both input and output domains are only
a single image. Another key thing that differentiates this method from its
predecessors is the usage of image patches rather than the whole images. It
also turns out that sampling negatives (patches required to calculate the loss)
from the same image achieves better results than a scenario where the negatives
are sampled from other images in the dataset. This type of approach encourages
mapping of corresponding patches to the same location in relation to other
patches (negatives) while at the same time improves the output image quality
and significantly decreases memory usage as well as the time required to train
the model compared to CycleGAN method used as a baseline. Through a series of
experiments we show that using focal loss in place of cross-entropy loss within
the PatchNCE loss can improve on the model's performance and even surpass the
current state-of-the-art model for image-to-image translation.
- Abstract(参考訳): 画像から画像への変換モデルは、画像のオリジナルコンテンツを保持するために、入力領域から出力領域へ画像を転送します。
対照的な非対訳は、これらの問題を解決する既存の方法の1つである。
競合と比較して、この手法の顕著な利点は、入力ドメインと出力ドメインの両方が単一の画像のみである場合に、トレーニングと実行をうまく行う能力である。
この手法を先代と区別するもうひとつの重要な点は、イメージ全体ではなく、イメージパッチを使用することだ。
また、同じ画像から負(損失を計算するのに必要なパッチ)をサンプリングすることは、データセット内の他の画像から負をサンプリングするシナリオよりも優れた結果が得られる。
この種のアプローチは、他のパッチ(負)と比較して対応するパッチを同じ場所にマッピングすることを奨励すると同時に、出力画像の品質を改善し、メモリ使用量を大幅に削減し、ベースラインとして使用されるCycleGAN法と比較してモデルのトレーニングに要する時間を大幅に削減する。
一連の実験により,PatchNCEの損失に代えて焦点損失を用いることで,モデルの性能が向上し,画像から画像への変換における現在の最先端モデルを上回る結果が得られた。
関連論文リスト
- Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Exploring Negatives in Contrastive Learning for Unpaired Image-to-Image
Translation [12.754320302262533]
我々は、パッチをスペーシングし、ランキング付けすることで、アンペア画像から画像への変換(PUT)のための新しい負のプルーニング技術を導入する。
提案アルゴリズムは効率的で柔軟で,対応するパッチ間で本質的な情報を安定的に学習することができる。
論文 参考訳(メタデータ) (2022-04-23T08:31:18Z) - Contrastive Feature Loss for Image Prediction [55.373404869092866]
教師付き画像合成モデルのトレーニングでは、批評家は2つの画像を比較する必要がある。
本稿では,2つの画像間の類似度を測定するための情報理論に基づくアプローチを提案する。
この定式化により,L1損失の代替として,出力画像の知覚的リアリズムが向上することを示す。
論文 参考訳(メタデータ) (2021-11-12T20:39:52Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Dual Contrastive Learning for Unsupervised Image-to-Image Translation [16.759958400617947]
unsupervised image-to-image translationタスクは、非ペアトレーニングデータからソースドメインxとターゲットドメインyとのマッピングを見つけることを目的としている。
画像対画像翻訳におけるコントラスト学習は最先端の成果をもたらす。
本論文では, 対比学習に基づく新しい手法と, 対比データ間の効率的なマッピングを推定するデュアルラーニング設定を提案する。
論文 参考訳(メタデータ) (2021-04-15T18:00:22Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。