論文の概要: The Spatially-Correlative Loss for Various Image Translation Tasks
- arxiv url: http://arxiv.org/abs/2104.00854v1
- Date: Fri, 2 Apr 2021 02:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:53:14.323465
- Title: The Spatially-Correlative Loss for Various Image Translation Tasks
- Title(参考訳): 各種画像翻訳課題における空間相関損失
- Authors: Chuanxia Zheng, Tat-Jen Cham, Jianfei Cai
- Abstract要約: シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
- 参考スコア(独自算出の注目度): 69.62228639870114
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel spatially-correlative loss that is simple, efficient and
yet effective for preserving scene structure consistency while supporting large
appearance changes during unpaired image-to-image (I2I) translation. Previous
methods attempt this by using pixel-level cycle-consistency or feature-level
matching losses, but the domain-specific nature of these losses hinder
translation across large domain gaps. To address this, we exploit the spatial
patterns of self-similarity as a means of defining scene structure. Our
spatially-correlative loss is geared towards only capturing spatial
relationships within an image rather than domain appearance. We also introduce
a new self-supervised learning method to explicitly learn spatially-correlative
maps for each specific translation task. We show distinct improvement over
baseline models in all three modes of unpaired I2I translation: single-modal,
multi-modal, and even single-image translation. This new loss can easily be
integrated into existing network architectures and thus allows wide
applicability.
- Abstract(参考訳): 空間的相関損失は,空間構造の整合性を保ちつつ,不対像画像(I2I)翻訳時の外観変化を抑えるのに有効である。
これまではピクセルレベルのサイクル整合性や特徴レベルの一致損失を用いてこれを試みてきたが、これらの損失のドメイン固有の性質は大きなドメインギャップをまたいだ翻訳を妨げる。
そこで我々は,シーン構造を定義する手段として,自己相似性の空間パターンを利用する。
我々の空間相関損失は、領域の外観ではなく、画像内の空間関係を捉えることのみを目的としている。
また,各翻訳タスクに対して空間相関マップを明示的に学習する自己教師型学習手法を提案する。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
この新たな損失は、既存のネットワークアーキテクチャに容易に統合できるため、幅広い適用性が期待できる。
関連論文リスト
- Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Unpaired Image-to-Image Translation using Adversarial Consistency Loss [6.900819011690599]
本稿では,画像から画像への変換における新たな対角距離損失を提案する。
本手法は, 眼鏡の除去, 男性から女性への翻訳, 自撮りからアニメへの翻訳の3つの課題に対して, 最先端の成果を得る。
論文 参考訳(メタデータ) (2020-03-10T17:10:38Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。