論文の概要: Discriminator Synthesis: On reusing the other half of Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2111.02175v1
- Date: Wed, 3 Nov 2021 12:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 17:32:11.104551
- Title: Discriminator Synthesis: On reusing the other half of Generative
Adversarial Networks
- Title(参考訳): 識別器合成:生成的対立ネットワークの残りの半分の再利用について
- Authors: Diego Porres
- Abstract要約: トレーニングデータセットから学んだ機能を使って、イメージを変更して、スクラッチから生成する方法を示します。
私たちはこのメソッドをDreamingと名付け、完全なコードはhttps://github.com/PDillis/stylegan3-fun.orgにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks have long since revolutionized the world of
computer vision and, tied to it, the world of art. Arduous efforts have gone
into fully utilizing and stabilizing training so that outputs of the Generator
network have the highest possible fidelity, but little has gone into using the
Discriminator after training is complete. In this work, we propose to use the
latter and show a way to use the features it has learned from the training
dataset to both alter an image and generate one from scratch. We name this
method Discriminator Dreaming, and the full code can be found at
https://github.com/PDillis/stylegan3-fun.
- Abstract(参考訳): 生成的な敵ネットワークは、コンピュータビジョンの世界に革命をもたらし、それと結びついた芸術の世界へと長い道のりを歩んできた。
ジェネレータネットワークの出力が最大限に忠実になるよう、トレーニングの活用と安定化に熱心に取り組んできたが、トレーニングが完了すると判別器を使うことはほとんどない。
本研究では,後者を用いて,トレーニングデータセットから学んだ特徴を,画像の変更とスクラッチからの生成の両方に使用する方法を提案する。
私たちはこのメソッドをDreamingと名付け、完全なコードはhttps://github.com/PDillis/stylegan3-fun.orgにある。
関連論文リスト
- Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Generative Cooperative Networks for Natural Language Generation [25.090455367573988]
本稿では,リアルテキストのサンプルを出力する生成ポリシーとともに,識別器アーキテクチャを協調的に使用する生成協調ネットワークについて紹介する。
我々は,提案手法の収束を理論的に保証し,2つの主要なNLGタスクにおいて,最先端の成果を実証的に達成するための様々な効率的な復号化手法について検討する。
論文 参考訳(メタデータ) (2022-01-28T18:36:57Z) - Re-using Adversarial Mask Discriminators for Test-time Training under
Distribution Shifts [10.647970046084916]
安定判別器の訓練によって表現的損失関数が生成され、推論時に再使用してセグメント化ミスを検出し、修正することができると論じる。
我々は、識別器と画像再構成コストを(デコーダを介して)組み合わせることで、モデルをさらに改善できることを示す。
提案手法は単純で,事前学習したGANの試験時間性能を向上させる。
論文 参考訳(メタデータ) (2021-08-26T17:31:46Z) - Training Generative Adversarial Networks in One Stage [58.983325666852856]
本稿では,1段階のみに効率よくGANを訓練できる汎用的なトレーニング手法を提案する。
提案手法は,データフリーな知識蒸留など,他の逆学習シナリオにも容易に適用可能であることを示す。
論文 参考訳(メタデータ) (2021-02-28T09:03:39Z) - Generative Adversarial Stacked Autoencoders [3.1829446824051195]
本稿では,GASCA(Generative Adversarial Stacked Convolutional Autoencoder)モデルを提案する。
本訓練では, 再建誤差がバニラ関節トレーニングよりも有意に低い画像を生成する。
論文 参考訳(メタデータ) (2020-11-22T17:51:59Z) - TopoAL: An Adversarial Learning Approach for Topology-Aware Road
Segmentation [56.353558147044]
我々は,我々の目的に合わせたAL(Adversarial Learning)戦略を導入する。
我々は,道路網のどの部分が正しいかを示すラベルピラミッドを返す,より洗練された識別器を使用している。
挑戦的なRoadTracerデータセットでは、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2020-07-17T16:06:45Z) - Autoencoding Generative Adversarial Networks [0.0]
本稿では,所定の潜在空間と与えられたサンプル空間とのマッピングを学習する4ネットワークモデルを提案する。
AEGAN技術は、トレーニング安定化、モード崩壊防止、実際のサンプル間の直接反転など、一般的なGANトレーニングにいくつかの改善を提供する。
論文 参考訳(メタデータ) (2020-04-11T19:51:04Z) - Data-Free Knowledge Amalgamation via Group-Stack Dual-GAN [80.17705319689139]
複数のシングルタスク/マルチタスクの教師から,多タスクの学生ネットワークを構築するために,データフリーな知識アマルガメート戦略を提案する。
トレーニングデータを持たない提案手法は, フル教師付き手法と比較して, 驚くほど競争力のある結果が得られる。
論文 参考訳(メタデータ) (2020-03-20T03:20:52Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - Generative Adversarial Trainer: Defense to Adversarial Perturbations
with GAN [13.561553183983774]
本稿では, 生成的対角ネットワークを用いて, ニューラルネットワークを敵の例に頑健にするための新しい手法を提案する。
ジェネレータネットワークは、各画像の勾配を用いて分類器ネットワークを騙し易くする対向摂動を生成する。
我々の対戦型トレーニングフレームワークは、Dropoutのような他の正規化手法よりも効率よくオーバーフィッティングを減らし、性能を向上します。
論文 参考訳(メタデータ) (2017-05-09T15:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。