論文の概要: Paired and Unpaired Image to Image Translation using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2505.16310v1
- Date: Thu, 22 May 2025 07:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.106383
- Title: Paired and Unpaired Image to Image Translation using Generative Adversarial Networks
- Title(参考訳): 生成的対向ネットワークを用いた画像翻訳におけるペア画像と不ペア画像の変換
- Authors: Gaurav Kumar, Soham Satyadharma, Harpreet Singh,
- Abstract要約: 最近のアーキテクチャでは、GAN(Generative Adversarial Networks)を利用して、入力イメージをあるドメインから別のドメインに変換している。
複数の画像領域にまたがるペア画像とペア画像の両方について検討した。
- 参考スコア(独自算出の注目度): 3.418003108727248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image to image translation is an active area of research in the field of computer vision, enabling the generation of new images with different styles, textures, or resolutions while preserving their characteristic properties. Recent architectures leverage Generative Adversarial Networks (GANs) to transform input images from one domain to another. In this work, we focus on the study of both paired and unpaired image translation across multiple image domains. For the paired task, we used a conditional GAN model, and for the unpaired task, we trained it using cycle consistency loss. We experimented with different types of loss functions, multiple Patch-GAN sizes, and model architectures. New quantitative metrics - precision, recall, and FID score - were used for analysis. In addition, a qualitative study of the results of different experiments was conducted.
- Abstract(参考訳): 画像から画像への変換はコンピュータビジョンの分野で活発な研究領域であり、その特性を維持しながら異なるスタイル、テクスチャ、解像度の新たな画像を生成することができる。
最近のアーキテクチャでは、GAN(Generative Adversarial Networks)を利用して、入力イメージをあるドメインから別のドメインに変換している。
本研究では,複数の画像領域にまたがるペア画像とペア画像の両方について検討する。
ペアタスクでは条件付きGANモデルを使用し、未ペアタスクではサイクル整合損失を用いてトレーニングを行った。
異なる種類の損失関数、複数のパッチGANサイズ、モデルアーキテクチャを実験した。
分析には、新しい定量的指標(精度、リコール、FIDスコア)が使用された。
さらに,実験結果の質的研究を行った。
関連論文リスト
- Mechanisms of Generative Image-to-Image Translation Networks [1.602820210496921]
本稿では,既存のモデルに比べてシンプルなアーキテクチャで,画像間翻訳ネットワークを提案する。
GANモデルに対する逆算は、余分な複雑な損失のペナルティを伴わない既存の手法に匹敵する結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-11-15T17:17:46Z) - On the exploitation of DCT statistics for cropping detectors [5.039808715733204]
本研究では,DCT統計を用いた画像分解能分類器について検討し,画像の本来の分解能を検出することを目的とした。
その結果, 収穫画像と収穫画像の区別における分類器の信頼性が示され, 元の分解能の信頼性が評価された。
この研究は、複数の領域にわたる画像解析と使用法を変換する可能性を持つ、この分野における新しい視点を開放する。
論文 参考訳(メタデータ) (2024-03-21T19:05:31Z) - Multi-cropping Contrastive Learning and Domain Consistency for
Unsupervised Image-to-Image Translation [5.562419999563734]
マルチクロップ型コントラスト学習とドメイン整合性に基づく新しい教師なし画像から画像への翻訳フレームワーク MCDUT を提案する。
多くの画像と画像の翻訳タスクにおいて,本手法は最先端の結果を達成し,その利点は比較実験とアブレーション研究によって証明されている。
論文 参考訳(メタデータ) (2023-04-24T16:20:28Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Network-to-Network Translation with Conditional Invertible Neural
Networks [19.398202091883366]
最近の研究は、巨大な機械学習モデルのパワーが、彼らが学んだ表現によって捉えられていることを示唆している。
本研究では,異なる既存表現を関連付けることが可能なモデルを模索し,条件付き可逆ネットワークを用いてこの問題を解決することを提案する。
ドメイン転送ネットワークは、それらを学習したり微調整したりすることなく、固定表現を変換できます。
論文 参考訳(メタデータ) (2020-05-27T18:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。