論文の概要: Coarse-to-Fine Searching for Efficient Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2104.09223v1
- Date: Mon, 19 Apr 2021 11:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:49:22.584413
- Title: Coarse-to-Fine Searching for Efficient Generative Adversarial Networks
- Title(参考訳): 効率的なジェネレーティブ・ディバイザ・ネットワークのための粗相関探索
- Authors: Jiahao Wang, Han Shu, Weihao Xia, Yujiu Yang, Yunhe Wang
- Abstract要約: GAN(Generative Adversarial Network)は通常、様々な複雑な画像生成を行うように設計されている。
まず,経路,演算子,チャネルなど3次元のジェネレータネットワークの無傷検索空間を探索し,ネットワーク性能の完全な探索を行う。
探索コストを大幅に削減するため,探索プロセス全体を3つのサブ最適化問題に分割する粗大な探索戦略を探索する。
- 参考スコア(独自算出の注目度): 43.21560798088658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the neural architecture search (NAS) problem for
developing efficient generator networks. Compared with deep models for visual
recognition tasks, generative adversarial network (GAN) are usually designed to
conduct various complex image generation. We first discover an intact search
space of generator networks including three dimensionalities, i.e., path,
operator, channel for fully excavating the network performance. To reduce the
huge search cost, we explore a coarse-to-fine search strategy which divides the
overall search process into three sub-optimization problems accordingly. In
addition, a fair supernet training approach is utilized to ensure that all
sub-networks can be updated fairly and stably. Experiments results on
benchmarks show that we can provide generator networks with better image
quality and lower computational costs over the state-of-the-art methods. For
example, with our method, it takes only about 8 GPU hours on the entire
edges-to-shoes dataset to get a 2.56 MB model with a 24.13 FID score and 10 GPU
hours on the entire Urban100 dataset to get a 1.49 MB model with a 24.94 PSNR
score.
- Abstract(参考訳): 本稿では,効率的なジェネレータネットワーク構築のためのニューラルネットワーク探索(nas)問題について検討する。
視覚認識タスクの深層モデルと比較して、GAN(Generative Adversarial Network)は通常、様々な複雑な画像生成を行うように設計されている。
まず,経路,演算子,チャネルなど3次元のジェネレータネットワークの無傷検索空間を探索し,ネットワーク性能の完全な探索を行う。
探索コストを大幅に削減するため,探索プロセス全体を3つのサブ最適化問題に分割する粗大な探索戦略を探索する。
さらに、全てのサブネットワークを公平かつ安定的に更新できるように、公正なスーパーネットトレーニングアプローチが採用されている。
ベンチマーク実験の結果,最先端手法よりも画像品質が向上し,計算コストの低減が期待できることがわかった。
例えば、我々の方法では、エッジ・ツー・シューズデータセット全体のGPU時間は約8時間で、24.13 FIDスコアを持つ2.56MBモデル、Urban100データセット全体のGPU時間10時間で、24.94 PSNRスコアを持つ1.49MBモデルが得られる。
関連論文リスト
- G-EvoNAS: Evolutionary Neural Architecture Search Based on Network
Growth [6.712149832731174]
本稿では,ネットワーク成長(G-EvoNAS)に基づく計算効率の良いニューラルネットワーク進化探索フレームワークを提案する。
G-EvoNASはCIFAR10、CIFAR100、ImageNetの3つの一般的な画像分類データセットでテストされている。
実験の結果、G-EvoNASは0.2GPU日で最先端の設計に匹敵するニューラルネットワークアーキテクチャを見出すことができた。
論文 参考訳(メタデータ) (2024-03-05T05:44:38Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Combined Depth Space based Architecture Search For Person
Re-identification [70.86236888223569]
個人再識別(ReID)のための軽量で適切なネットワークの設計を目指しています。
本研究では,CDNetと呼ばれる効率的なネットワークアーキテクチャの探索に基づく,複合深さ空間(Componed Depth Space, CDS)と呼ばれる新しい検索空間を提案する。
そこで我々はTop-k Sample Search戦略という低コストの検索戦略を提案し、検索空間をフル活用し、局所的な最適結果のトラップを避ける。
論文 参考訳(メタデータ) (2021-04-09T02:40:01Z) - Fine-Grained Stochastic Architecture Search [6.277767522867666]
Fine-Grained Architecture Search (FiGS) は、より大きな候補アーキテクチャの集合を探索する微分可能な検索手法である。
FiGSは、構造化スパース正規化ペナルティを適用して、検索空間内の演算子を同時に選択・変更する。
既存の3つの検索空間にまたがって結果を示し、元の検索アルゴリズムのマッチングや性能を向上する。
論文 参考訳(メタデータ) (2020-06-17T01:04:14Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Real-Time Semantic Segmentation via Auto Depth, Downsampling Joint
Decision and Feature Aggregation [54.28963233377946]
本稿では,セグメンテーション戦略の自動化を目的として,AutoRTNetという共同検索フレームワークを提案する。
具体的には,ネットワーク深度とダウンサンプリング戦略を協調的に決定するハイパーセルと,自動マルチスケール機能アグリゲーションを実現するアグリゲーションセルを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。