論文の概要: HP-GAN: Harnessing pretrained networks for GAN improvement with FakeTwins and discriminator consistency
- arxiv url: http://arxiv.org/abs/2602.03039v1
- Date: Tue, 03 Feb 2026 03:05:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.212925
- Title: HP-GAN: Harnessing pretrained networks for GAN improvement with FakeTwins and discriminator consistency
- Title(参考訳): HP-GAN:FakeTwinsによるGAN改善のための事前訓練ネットワークのハーネス化と差別化の整合性
- Authors: Geonhui Son, Jeong Ryong Lee, Dosik Hwang,
- Abstract要約: GAN(Generative Adversarial Networks)は,画像合成の品質向上に大きく貢献している。
本稿では、革新的な自己教師付き学習技術を導入し、GANトレーニング中に差別者間の一貫性を強化することにより、事前学習ネットワークの機能を拡張する。
提案手法は,FakeTwinsと差別化器の整合性という2つの主要な戦略を通じて,ニューラルネットワークの先行性を効果的に活用する。
- 参考スコア(独自算出の注目度): 8.171455843918405
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative Adversarial Networks (GANs) have made significant progress in enhancing the quality of image synthesis. Recent methods frequently leverage pretrained networks to calculate perceptual losses or utilize pretrained feature spaces. In this paper, we extend the capabilities of pretrained networks by incorporating innovative self-supervised learning techniques and enforcing consistency between discriminators during GAN training. Our proposed method, named HP-GAN, effectively exploits neural network priors through two primary strategies: FakeTwins and discriminator consistency. FakeTwins leverages pretrained networks as encoders to compute a self-supervised loss and applies this through the generated images to train the generator, thereby enabling the generation of more diverse and high quality images. Additionally, we introduce a consistency mechanism between discriminators that evaluate feature maps extracted from Convolutional Neural Network (CNN) and Vision Transformer (ViT) feature networks. Discriminator consistency promotes coherent learning among discriminators and enhances training robustness by aligning their assessments of image quality. Our extensive evaluation across seventeen datasets-including scenarios with large, small, and limited data, and covering a variety of image domains-demonstrates that HP-GAN consistently outperforms current state-of-the-art methods in terms of Fréchet Inception Distance (FID), achieving significant improvements in image diversity and quality. Code is available at: https://github.com/higun2/HP-GAN.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は,画像合成の品質向上に大きく貢献している。
最近の手法では、事前学習されたネットワークを利用して知覚的損失を計算したり、事前学習された特徴空間を利用する。
本稿では、革新的な自己教師付き学習技術を導入し、GANトレーニング中に差別者間の一貫性を強化することにより、事前学習ネットワークの機能を拡張する。
提案手法は,FakeTwinsと差別化器の整合性という2つの主要な戦略を通じて,ニューラルネットワークの先行性を効果的に活用する。
FakeTwinsは、事前訓練されたネットワークをエンコーダとして利用して、自己監督された損失を計算し、生成したイメージを通じてこれを適用してジェネレータをトレーニングすることで、より多彩で高品質な画像の生成を可能にする。
さらに、畳み込みニューラルネットワーク(CNN)から抽出した特徴マップと視覚変換器(ViT)特徴ネットワークから抽出した特徴マップを評価するための識別器間の一貫性機構を導入する。
判別器の一貫性は、識別器間のコヒーレントな学習を促進し、画像品質の評価を整合させることにより、トレーニングの堅牢性を高める。
Fréchet Inception Distance(FID)の観点からHP-GANが常に最先端の手法よりも優れており、画像の多様性と品質の大幅な向上を実現している。
コードは、https://github.com/higun2/HP-GAN.comで入手できる。
関連論文リスト
- Foundations and Models in Modern Computer Vision: Key Building Blocks in Landmark Architectures [34.542592986038265]
本報告では,コンピュータビジョンにおけるキーデザインパターンの進化を,影響力のある6つの論文から分析する。
本稿では,残差接続を導入したResNetについて概説する。
画像パッチのシーケンスにトランスフォーマーアーキテクチャを適用し,新たなパラダイムを確立したビジョントランスフォーマー(ViT)について検討する。
論文 参考訳(メタデータ) (2025-07-31T09:08:11Z) - Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - X-Transfer: A Transfer Learning-Based Framework for GAN-Generated Fake
Image Detection [33.31312811230408]
顔置換などの偽画像を生成するためにGANを誤用することは、重大なセキュリティ上の懸念を引き起こす。
本稿では,新しい画像検出アルゴリズムであるX-Transferを提案する。
インターリーブされた並列勾配伝送を利用する2つのニューラルネットワークを利用することで、トランスファーラーニングを強化する。
論文 参考訳(メタデータ) (2023-10-07T01:23:49Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - The Nuts and Bolts of Adopting Transformer in GANs [124.30856952272913]
高忠実度画像合成のためのGAN(Generative Adversarial Network)フレームワークにおけるTransformerの特性について検討する。
我々の研究は、STrans-Gと呼ばれる畳み込みニューラルネットワーク(CNN)フリージェネレータであるGANにおけるトランスフォーマーの新しい代替設計につながる。
論文 参考訳(メタデータ) (2021-10-25T17:01:29Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Improving the Speed and Quality of GAN by Adversarial Training [87.70013107142142]
我々は,GAN訓練の高速化と品質向上を目的としたFastGANを開発した。
当社のトレーニングアルゴリズムは,2-4GPUを必要とすることによって,ImageNetのトレーニングを一般向けに提供しています。
論文 参考訳(メタデータ) (2020-08-07T20:21:31Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。