論文の概要: Unpaired Image-to-Image Translation with Content Preserving Perspective: A Review
- arxiv url: http://arxiv.org/abs/2502.08667v1
- Date: Tue, 11 Feb 2025 20:09:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:44:44.479547
- Title: Unpaired Image-to-Image Translation with Content Preserving Perspective: A Review
- Title(参考訳): コンテンツ保存の観点からの非対位画像翻訳
- Authors: Mehran Safayani, Behnaz Mirzapour, Hanieh Aghaebrahimian, Nasrin Salehi, Hamid Ravaee,
- Abstract要約: 画像画像変換(I2I)は、ソースコンテンツを保存しながら、ソースドメインからターゲットドメインに画像を変換する。
翻訳過程におけるソース画像の内容の保存度は、問題や意図した用途に応じて異なることができる。
画像と画像の翻訳の分野における様々なタスクを,完全コンテンツ保存,部分コンテンツ保存,非コンテンツ保存の3つのカテゴリに分けた。
- 参考スコア(独自算出の注目度): 1.1243043117244755
- License:
- Abstract: Image-to-image translation (I2I) transforms an image from a source domain to a target domain while preserving source content. Most computer vision applications are in the field of image-to-image translation, such as style transfer, image segmentation, and photo enhancement. The degree of preservation of the content of the source images in the translation process can be different according to the problem and the intended application. From this point of view, in this paper, we divide the different tasks in the field of image-to-image translation into three categories: Fully Content preserving, Partially Content preserving, and Non-Content preserving. We present different tasks, datasets, methods, results of methods for these three categories in this paper. We make a categorization for I2I methods based on the architecture of different models and study each category separately. In addition, we introduce well-known evaluation criteria in the I2I translation field. Specifically, nearly 70 different I2I models were analyzed, and more than 10 quantitative evaluation metrics and 30 distinct tasks and datasets relevant to the I2I translation problem were both introduced and assessed. Translating from simulation to real images could be well viewed as an application of fully content preserving or partially content preserving unsupervised image-to-image translation methods. So, we provide a benchmark for Sim-to-Real translation, which can be used to evaluate different methods. In general, we conclude that because of the different extent of the obligation to preserving content in various applications, it is better to consider this issue in choosing a suitable I2I model for a specific application.
- Abstract(参考訳): 画像画像変換(I2I)は、ソースコンテンツを保存しながら、ソースドメインからターゲットドメインに画像を変換する。
ほとんどのコンピュータビジョンアプリケーションは、スタイル転送、画像分割、写真強調といった画像から画像への変換の分野で使われている。
翻訳過程におけるソース画像の内容の保存度は、問題や意図した用途に応じて異なることができる。
本稿では,画像間翻訳の分野における課題を,完全コンテンツ保存,部分コンテンツ保存,非コンテンツ保存の3つのカテゴリに分けた。
本稿では,これら3つのカテゴリのタスク,データセット,メソッド,メソッドの結果について述べる。
我々は、異なるモデルのアーキテクチャに基づいて、I2I手法の分類を行い、各カテゴリを別々に研究する。
さらに、I2I翻訳分野において、よく知られた評価基準を導入する。
具体的には、70近い異なるI2Iモデルを分析し、10以上の定量的評価指標と、I2I翻訳問題に関連する30のタスクとデータセットを紹介し、評価した。
シミュレーションから実画像への変換は、教師なしのイメージ・ツー・イメージの翻訳手法による完全なコンテンツ保存や部分的にのコンテンツ保存の応用として、よく見なされる。
そこで我々はSim-to-Real翻訳のベンチマークを提供し、異なる手法の評価に使用できる。
一般に、様々なアプリケーションにおけるコンテンツ保存の義務の程度が異なるため、特定のアプリケーションに適したI2Iモデルを選択する際に、この問題を考慮する方がよいと結論付けている。
関連論文リスト
- An image speaks a thousand words, but can everyone listen? On image transcreation for cultural relevance [53.974497865647336]
われわれは、画像の翻訳を文化的に意味のあるものにするための第一歩を踏み出した。
タスクを行うために、最先端の生成モデルからなる3つのパイプラインを構築します。
我々は,翻訳画像の人間による評価を行い,文化的意義と保存の意味を評価する。
論文 参考訳(メタデータ) (2024-04-01T17:08:50Z) - StyleFlow For Content-Fixed Image to Image Translation [15.441136520005578]
StyleFlowは、正規化フローと新しいStyle-Aware Normalization (SAN)モジュールで構成される新しいI2I翻訳モデルである。
我々のモデルは画像誘導翻訳とマルチモーダル合成の両方をサポートしている。
論文 参考訳(メタデータ) (2022-07-05T09:40:03Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Retrieval Guided Unsupervised Multi-domain Image-to-Image Translation [59.73535607392732]
画像から画像への変換は、ある視覚領域から別の領域へ画像を変換するマッピングを学ぶことを目的としている。
本稿では,画像から画像への変換作業を支援するための画像検索システムを提案する。
論文 参考訳(メタデータ) (2020-08-11T20:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。