論文の概要: CFFT-GAN: Cross-domain Feature Fusion Transformer for Exemplar-based
Image Translation
- arxiv url: http://arxiv.org/abs/2302.01608v1
- Date: Fri, 3 Feb 2023 09:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 16:56:48.702596
- Title: CFFT-GAN: Cross-domain Feature Fusion Transformer for Exemplar-based
Image Translation
- Title(参考訳): CFFT-GAN: 画像変換用クロスドメイン機能融合変換器
- Authors: Tianxiang Ma, Bingchuan Li, Wei Liu, Miao Hua, Jing Dong, Tieniu Tan
- Abstract要約: 本稿では,2つの領域の特徴を全体として考慮して,より一般的な学習手法を提案する。
具体的には,クロスドメイン・フィーチャー・フュージョン・コンバータ(CFFT)を提案し,ドメイン間およびドメイン内フィーチャー・フュージョンを学習する。
CFFTに基づいて、提案したCFFT-GANは、典型的な画像変換によく機能する。
- 参考スコア(独自算出の注目度): 55.48699434634843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-based image translation refers to the task of generating images with
the desired style, while conditioning on certain input image. Most of the
current methods learn the correspondence between two input domains and lack the
mining of information within the domains. In this paper, we propose a more
general learning approach by considering two domain features as a whole and
learning both inter-domain correspondence and intra-domain potential
information interactions. Specifically, we propose a Cross-domain Feature
Fusion Transformer (CFFT) to learn inter- and intra-domain feature fusion.
Based on CFFT, the proposed CFFT-GAN works well on exemplar-based image
translation. Moreover, CFFT-GAN is able to decouple and fuse features from
multiple domains by cascading CFFT modules. We conduct rich quantitative and
qualitative experiments on several image translation tasks, and the results
demonstrate the superiority of our approach compared to state-of-the-art
methods. Ablation studies show the importance of our proposed CFFT. Application
experimental results reflect the potential of our method.
- Abstract(参考訳): Exemplar-based image translationは、特定の入力画像に条件付けしながら、所望のスタイルで画像を生成するタスクを指す。
現在の手法のほとんどは、2つの入力ドメイン間の対応を学習し、ドメイン内の情報のマイニングを欠いている。
本稿では,2つのドメイン機能全体を考慮し,ドメイン間対応とドメイン内潜在情報インタラクションの両方を学習することで,より汎用的な学習手法を提案する。
具体的には,ドメイン間およびドメイン内機能融合を学習するクロスドメイン機能融合トランス(cfft)を提案する。
CFFTに基づいて、提案したCFFT-GANは、典型的な画像変換によく機能する。
さらに、CFFT-GANはCFFTモジュールをカスケードすることで、複数のドメインから機能を分離および融合することができる。
画像翻訳タスクの定量的および定性的な実験を行い,本手法が最先端の手法よりも優れていることを示す。
アブレーション研究は,提案するCFFTの重要性を示している。
応用実験結果は本手法の可能性を反映したものである。
関連論文リスト
- Frequency-Controlled Diffusion Model for Versatile Text-Guided Image-to-Image Translation [17.30877810859863]
大規模テキスト・ツー・イメージ拡散モデル(T2I)は画像・画像翻訳(I2I)の強力なツールとして登場した。
本稿では,周波数制御拡散モデル(FCDiffusion)を提案する。
論文 参考訳(メタデータ) (2024-07-03T11:05:19Z) - A Dual Domain Multi-exposure Image Fusion Network based on the
Spatial-Frequency Integration [57.14745782076976]
マルチ露光画像融合は、異なる露光で画像を統合することにより、単一の高ダイナミック画像を生成することを目的としている。
本稿では,MEF-SFI と呼ばれる空間周波数統合フレームワークによるマルチ露光画像融合の新たな視点を提案する。
提案手法は,最先端のマルチ露光画像融合手法に対する視覚的近似核融合結果を実現する。
論文 参考訳(メタデータ) (2023-12-17T04:45:15Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unsupervised Image Fusion Method based on Feature Mutual Mapping [16.64607158983448]
上記の問題に対処するために,教師なし適応画像融合法を提案する。
入力元画像間の画素の接続を計測するグローバルマップを構築した。
本手法は視覚的知覚と客観的評価の両方において優れた性能を実現する。
論文 参考訳(メタデータ) (2022-01-25T07:50:14Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - Continuous and Diverse Image-to-Image Translation via Signed Attribute
Vectors [120.13149176992896]
本稿では,様々な領域にまたがる多様な写像経路の連続的な変換を可能にする,効果的に署名された属性ベクトルを提案する。
連続翻訳結果の視覚的品質を高めるため、2つの符号対称属性ベクトル間の軌跡を生成する。
論文 参考訳(メタデータ) (2020-11-02T18:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。