論文の概要: CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation
- arxiv url: http://arxiv.org/abs/2001.05489v2
- Date: Sat, 27 Nov 2021 02:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 06:24:05.185586
- Title: CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation
- Title(参考訳): 画像から画像への変換のためのcdgan: cyclic discriminative generative adversarial network
- Authors: Kancharagunta Kishan Babu, Shiv Ram Dubey
- Abstract要約: 我々はCDGAN(Cyclic Discriminative Generative Adversarial Networks)と呼ばれる新しい画像間変換ネットワークを導入する。
提案したCDGANは、サイクル画像に新たな識別器ネットワークを組み込むことにより、高品質でリアルな画像を生成する。
定量および定性的な結果を解析し、最先端の手法と比較する。
- 参考スコア(独自算出の注目度): 17.205434613674104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have facilitated a new direction to
tackle the image-to-image transformation problem. Different GANs use generator
and discriminator networks with different losses in the objective function.
Still there is a gap to fill in terms of both the quality of the generated
images and close to the ground truth images. In this work, we introduce a new
Image-to-Image Transformation network named Cyclic Discriminative Generative
Adversarial Networks (CDGAN) that fills the above mentioned gaps. The proposed
CDGAN generates high quality and more realistic images by incorporating the
additional discriminator networks for cycled images in addition to the original
architecture of the CycleGAN. The proposed CDGAN is tested over three
image-to-image transformation datasets. The quantitative and qualitative
results are analyzed and compared with the state-of-the-art methods. The
proposed CDGAN method outperforms the state-of-the-art methods when compared
over the three baseline Image-to-Image transformation datasets. The code is
available at https://github.com/KishanKancharagunta/CDGAN.
- Abstract(参考訳): generative adversarial networks (gans) は、画像から画像への変換問題に取り組むための新しい方向性を促進している。
異なるganは、目的関数の損失が異なるジェネレータと判別器ネットワークを使用する。
それでも、生成した画像の品質と、地上の真実に近い画像の両方を埋めるにはギャップがある。
本稿では,上記のギャップを埋める新しい画像から画像への変換ネットワークであるcyclic discriminative generative adversarial networks (cdgan)を提案する。
提案したCDGANは,CycleGANのオリジナルアーキテクチャに加えて,サイクル画像に対する識別器ネットワークを付加することにより,高品質で現実的な画像を生成する。
提案したCDGANは、3つの画像-画像変換データセット上でテストされる。
定量および定性的な結果を解析し、最先端の手法と比較する。
提案手法は,3つのベースラインから画像への変換データセットと比較して,最先端の手法よりも優れている。
コードはhttps://github.com/kishankancharagunta/cdganで入手できる。
関連論文リスト
- Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - SRTransGAN: Image Super-Resolution using Transformer based Generative
Adversarial Network [16.243363392717434]
トランスをベースとしたエンコーダデコーダネットワークを2倍画像と4倍画像を生成するジェネレータとして提案する。
提案したSRTransGANは、PSNRとSSIMのスコアの平均で、既存の手法よりも4.38%優れていた。
論文 参考訳(メタデータ) (2023-12-04T16:22:39Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation [17.20913584422917]
少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
論文 参考訳(メタデータ) (2022-05-12T11:32:39Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Progressively Unfreezing Perceptual GAN [28.330940021951438]
画像生成にはGAN(Generative Adversarial Network)が広く用いられているが、生成した画像はテクスチャの詳細が欠如している。
本稿では,テクスチャの細かい画像を生成するための一般的なフレームワークであるProgressively Unfreezing Perceptual GAN(PUPGAN)を提案する。
論文 参考訳(メタデータ) (2020-06-18T03:12:41Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。