論文の概要: Automatic Correction of Internal Units in Generative Neural Networks
- arxiv url: http://arxiv.org/abs/2104.06118v1
- Date: Tue, 13 Apr 2021 11:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:27:13.994543
- Title: Automatic Correction of Internal Units in Generative Neural Networks
- Title(参考訳): 生成ニューラルネットワークにおける内部単位の自動補正
- Authors: Ali Tousi, Haedong Jeong, Jiyeon Han, Hwanil Choi and Jaesik Choi
- Abstract要約: GAN(Generative Adversarial Networks)は,合成画像生成において良好な性能を示す。
人工物として知られる、欠陥のある視覚パターンを持つ多数の生成画像が存在する。
本研究では,様々な種類のアーティファクト画像を生成する内部ユニットを自動的に識別する手法を考案する。
- 参考スコア(独自算出の注目度): 15.67941936262584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown satisfactory performance in
synthetic image generation by devising complex network structure and
adversarial training scheme. Even though GANs are able to synthesize realistic
images, there exists a number of generated images with defective visual
patterns which are known as artifacts. While most of the recent work tries to
fix artifact generations by perturbing latent code, few investigate internal
units of a generator to fix them. In this work, we devise a method that
automatically identifies the internal units generating various types of
artifact images. We further propose the sequential correction algorithm which
adjusts the generation flow by modifying the detected artifact units to improve
the quality of generation while preserving the original outline. Our method
outperforms the baseline method in terms of FID-score and shows satisfactory
results with human evaluation.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は,複雑なネットワーク構造を考案し,合成画像生成において良好な性能を示す。
GANは現実的な画像を合成できるが、人工物として知られる欠陥のある視覚パターンを持つ多くの生成画像が存在する。
最近の作業のほとんどが潜在コードの摂動によるアーティファクト生成の修正を試みているが、それらを修正するためにジェネレータの内部ユニットを調査することは少ない。
本研究では,様々な種類のアーティファクト画像を生成する内部ユニットを自動的に識別する手法を考案する。
さらに,検出したアーティファクト単位を変更して生成フローを調整し,元のアウトラインを保存しながら生成品質を向上させるシーケンシャル補正アルゴリズムを提案する。
提案手法は,FIDスコアの観点からベースライン法より優れ,人間の評価に満足できる結果を示す。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Diffusion Brush: A Latent Diffusion Model-based Editing Tool for
AI-generated Images [10.323260768204461]
テキスト・ツー・イメージ生成モデルは高品質な画像の生成において顕著な進歩を遂げている。
生成した画像を微調整するための既存の技術は、時間を要する(手作業による編集)。
我々は,AI合成画像内の所望領域を効率よく微調整する潜在拡散モデル(LDM)ツールであるDiffusion Brushを提案する。
論文 参考訳(メタデータ) (2023-05-31T22:27:21Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion [3.8807073304999355]
GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-04T13:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。