論文の概要: Searching towards Class-Aware Generators for Conditional Generative
Adversarial Networks
- arxiv url: http://arxiv.org/abs/2006.14208v2
- Date: Tue, 6 Apr 2021 02:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:32:28.057605
- Title: Searching towards Class-Aware Generators for Conditional Generative
Adversarial Networks
- Title(参考訳): 条件付き生成逆ネットワークのためのクラスアウェアジェネレータの探索
- Authors: Peng Zhou, Lingxi Xie, Xiaopeng Zhang, Bingbing Ni, Qi Tian
- Abstract要約: 条件付き生成逆数ネットワーク(cGAN)は,その条件に基づいて画像を生成するように設計されている。
既存のメソッドは、すべてのクラスで同じ生成アーキテクチャを使っている。
本稿では,各クラスごとに異なるアーキテクチャを見つけるためにNASを採用する新しいアイデアを提案する。
- 参考スコア(独自算出の注目度): 132.29772160843825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Generative Adversarial Networks (cGAN) were designed to generate
images based on the provided conditions, \eg, class-level distributions.
However, existing methods have used the same generating architecture for all
classes. This paper presents a novel idea that adopts NAS to find a distinct
architecture for each class. The search space contains regular and
class-modulated convolutions, where the latter is designed to introduce
class-specific information while avoiding the reduction of training data for
each class generator. The search algorithm follows a weight-sharing pipeline
with mixed-architecture optimization so that the search cost does not grow with
the number of classes. To learn the sampling policy, a Markov decision process
is embedded into the search algorithm and a moving average is applied for
better stability. We evaluate our approach on CIFAR10 and CIFAR100. Besides
achieving better image generation quality in terms of FID scores, we discover
several insights that are helpful in designing cGAN models. Code is available
at https://github.com/PeterouZh/NAS_cGAN.
- Abstract(参考訳): CGAN(Con Conditional Generative Adversarial Networks)は、与えられた条件、すなわちクラスレベルの分布に基づいて画像を生成するように設計されている。
しかし、既存のメソッドはすべてのクラスで同じ生成アーキテクチャを使っている。
本稿では,各クラスごとに異なるアーキテクチャを見つけるためにNASを採用する新しいアイデアを提案する。
探索空間には正規およびクラス修飾畳み込みが含まれており、後者はクラス生成器毎のトレーニングデータの削減を回避しつつクラス固有の情報を導入するよう設計されている。
検索アルゴリズムは、クラス数で検索コストが増大しないように、混合アーキテクチャ最適化を伴う重み共有パイプラインに従う。
サンプリングポリシーを学習するために、探索アルゴリズムにマルコフ決定プロセスを埋め込み、安定性を向上させるために移動平均を適用する。
CIFAR10とCIFAR100について検討した。
FIDスコアの点から、画像生成品質の向上に加えて、cGANモデルの設計に有用ないくつかの洞察を見出す。
コードはhttps://github.com/PeterouZh/NAS_cGANで入手できる。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Improving Differentiable Architecture Search with a Generative Model [10.618008515822483]
我々は、生成モデルを用いた微分可能なアーキテクチャ探索(DASGM)と呼ばれるトレーニング戦略を導入する。
DASGMでは、トレーニングセットを使用して分類モデルの重みを更新し、合成データセットを使用してアーキテクチャをトレーニングする。
生成された画像はトレーニングセットと異なる分布を持ち、分類モデルがその弱点を識別するためにより良い特徴を学ぶのに役立つ。
論文 参考訳(メタデータ) (2021-11-30T23:28:02Z) - NAS-Bench-x11 and the Power of Learning Curves [43.4379778935488]
本研究では,NAS-Bench-111,NAS-Bench-311,NAS-Bench-11,NAS-Bench-11のベンチマークを作成するために特異値分解とノイズモデリングを用いた手法を提案する。
本研究では,学習曲線外挿フレームワークを導入し,単一忠実度アルゴリズムを改良することで,学習情報を完全に活用する能力を実証する。
論文 参考訳(メタデータ) (2021-11-05T16:41:06Z) - GistNet: a Geometric Structure Transfer Network for Long-Tailed
Recognition [95.93760490301395]
長い尾の認識は、クラスごとのサンプル数が非常にアンバランスである問題です。
GistNetは、クラスジオメトリをエンコードするために分類パラメータのコンステレーションを使用して、この目標をサポートするように提案されている。
新しい学習アルゴリズムがGeometrIc Structure Transfer (GIST) に提案され、クラスバランスとランダムサンプリングを組み合わせた損失関数の組み合わせにより、一般的なクラスに過度に適合することは幾何パラメータに制限されるが、人気クラスから少数ショットクラスへのクラス幾何学の転送に利用される。
論文 参考訳(メタデータ) (2021-05-01T00:37:42Z) - Transfer learning based few-shot classification using optimal transport
mapping from preprocessed latent space of backbone neural network [0.0]
本論文は,大会における2番目に優れた応募について述べる。
メタラーニング手法は,各クラスに対して,バックボーンネットワークによって生成される潜在空間におけるクラス分布を変化させる。
そこで本研究では,シンクホーンアルゴリズムを用いた最適トランスポートマッピングを提案する。
論文 参考訳(メタデータ) (2021-02-09T23:10:58Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - NATS-Bench: Benchmarking NAS Algorithms for Architecture Topology and
Size [31.903475598150152]
アーキテクチャトポロジとサイズの両方を検索するための統一ベンチマークであるNATS-Benchを提案する。
NATS-Benchには、アーキテクチャトポロジのための15,625のニューラルネットワーク候補と、3つのデータセット上のアーキテクチャサイズのための32,768の検索スペースが含まれている。
論文 参考訳(メタデータ) (2020-08-28T21:34:56Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。