論文の概要: An Analysis for Image-to-Image Translation and Style Transfer
- arxiv url: http://arxiv.org/abs/2408.06000v1
- Date: Mon, 12 Aug 2024 08:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 14:35:18.936638
- Title: An Analysis for Image-to-Image Translation and Style Transfer
- Title(参考訳): 画像間変換とスタイル転送に関する一検討
- Authors: Xiaoming Yu, Jie Tian, Zhenhua Hu,
- Abstract要約: 本稿では,画像間翻訳とスタイル変換の相違点と関連点を紹介する。
議論プロセス全体は、概念、フォーム、トレーニングモード、評価プロセス、視覚化結果を含む。
- 参考スコア(独自算出の注目度): 7.074445137050722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of generative technologies in deep learning, a large number of image-to-image translation and style transfer models have emerged at an explosive rate in recent years. These two technologies have made significant progress and can generate realistic images. However, many communities tend to confuse the two, because both generate the desired image based on the input image and both cover the two definitions of content and style. In fact, there are indeed significant differences between the two, and there is currently a lack of clear explanations to distinguish the two technologies, which is not conducive to the advancement of technology. We hope to serve the entire community by introducing the differences and connections between image-to-image translation and style transfer. The entire discussion process involves the concepts, forms, training modes, evaluation processes, and visualization results of the two technologies. Finally, we conclude that image-to-image translation divides images by domain, and the types of images in the domain are limited, and the scope involved is small, but the conversion ability is strong and can achieve strong semantic changes. Style transfer divides image types by single image, and the scope involved is large, but the transfer ability is limited, and it transfers more texture and color of the image.
- Abstract(参考訳): 近年, 深層学習における生成技術の発展に伴い, 画像間翻訳モデルやスタイル伝達モデルが爆発的に出現している。
これら2つの技術は大きな進歩を遂げ、現実的な画像を生成することができる。
しかし、多くのコミュニティは、入力画像に基づいて所望の画像を生成し、コンテンツとスタイルの2つの定義をカバーしているため、この2つを混同する傾向にある。
実際、両者の間には確かに大きな違いがあり、現在、技術の発展に寄与しない2つの技術を区別するための明確な説明が欠けている。
画像間翻訳とスタイル転送の違いと関連性を導入することで、コミュニティ全体にサービスを提供したいと思っています。
議論プロセス全体は、2つの技術のコンセプト、フォーム、トレーニングモード、評価プロセス、可視化結果を含む。
最後に、画像から画像への変換は領域ごとに分割され、領域内の画像の種類は限られており、関連する範囲は小さいが、変換能力は強く、意味的変化も強い。
スタイル転送はイメージタイプを単一のイメージで分割し、関連するスコープは大きいが、転送能力は制限され、画像のテクスチャや色をより多く転送する。
関連論文リスト
- Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - S2ST: Image-to-Image Translation in the Seed Space of Latent Diffusion [23.142097481682306]
複雑な画像におけるグローバルI2ITを実現するための新しいフレームワークであるS2STを紹介する。
S2STは遅延拡散モデルのシード空間内で動作し、後者が学習した強力な画像の先行処理を利用する。
S2STは、複雑な自動車シーンに対して、最先端のGANベースのI2IT手法、および拡散ベースのアプローチを超越していることを示す。
論文 参考訳(メタデータ) (2023-11-30T18:59:49Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Geometric Style Transfer [74.58782301514053]
幾何学的スタイルの伝達をサポートするニューラルアーキテクチャを導入する。
新しいアーキテクチャはテクスチャスタイルを転送するネットワークに先立って実行される。
ユーザーはコンテント/スタイルのペアを一般的なように入力したり、コンテント/テクスチャスタイル/幾何学スタイルのトリプルを入力できる。
論文 参考訳(メタデータ) (2020-07-10T16:33:23Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。