論文の概要: Improving Style-Content Disentanglement in Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2007.04964v1
- Date: Thu, 9 Jul 2020 17:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:50:12.406475
- Title: Improving Style-Content Disentanglement in Image-to-Image Translation
- Title(参考訳): 画像から画像への変換におけるスタイル内容の絡み合いの改善
- Authors: Aviv Gabbay and Yedid Hoshen
- Abstract要約: 本稿では,画像から画像への変換におけるスタイル内容の絡み合いを改善するための原則的アプローチを提案する。
それぞれの表現への情報の流れを考慮し、コンテンツ・ブートネックとして機能する追加の損失項を導入する。
- 参考スコア(独自算出の注目度): 42.05813194604972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised image-to-image translation methods have achieved tremendous
success in recent years. However, it can be easily observed that their models
contain significant entanglement which often hurts the translation performance.
In this work, we propose a principled approach for improving style-content
disentanglement in image-to-image translation. By considering the information
flow into each of the representations, we introduce an additional loss term
which serves as a content-bottleneck. We show that the results of our method
are significantly more disentangled than those produced by current methods,
while further improving the visual quality and translation diversity.
- Abstract(参考訳): 教師なしの画像から画像への翻訳手法は近年大きな成功を収めている。
しかし、これらのモデルには翻訳性能を損なう重要な絡み合いがあることは容易に観察できる。
本研究では,画像から画像への変換におけるスタイル内容の絡み合いを改善するための原則的アプローチを提案する。
各表現への情報の流れを考慮することで、コンテンツボトルネックとして機能する追加の損失項を導入する。
提案手法は,現在の手法で生成した手法よりもかなり不連続であり,さらに視覚品質や翻訳の多様性も向上した。
関連論文リスト
- High-Resolution Image Translation Model Based on Grayscale Redefinition [3.6996084306161277]
本稿では,異なる領域間の画像翻訳のための革新的な手法を提案する。
高解像度画像翻訳タスクでは、グレースケール調整法を用いてピクセルレベルの変換を行う。
他のタスクでは、Pix2PixHDモデルを使い、粗大な生成装置、マルチスケールの判別器、画像翻訳性能を向上させるために損失の改善を行う。
論文 参考訳(メタデータ) (2024-03-26T12:21:47Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Vector Quantized Image-to-Image Translation [31.65282783830092]
本稿では,ベクトル量子化手法を画像から画像への変換フレームワークに導入することを提案する。
我々のフレームワークは、最新の画像から画像への変換や画像拡張手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-27T04:22:29Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unbalanced Feature Transport for Exemplar-based Image Translation [51.54421432912801]
本稿では,画像翻訳における条件入力とスタイルの類似点間の特徴的アライメントに最適なトランスポートを組み込んだ一般画像翻訳フレームワークを提案する。
本手法は,最先端技術と比較して質的,定量的に優れた画像翻訳を実現する。
論文 参考訳(メタデータ) (2021-06-19T12:07:48Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。