論文の概要: MGAS: Multi-Granularity Architecture Search for Effective and Efficient
Neural Networks
- arxiv url: http://arxiv.org/abs/2310.15074v2
- Date: Wed, 25 Oct 2023 06:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 11:04:20.688867
- Title: MGAS: Multi-Granularity Architecture Search for Effective and Efficient
Neural Networks
- Title(参考訳): MGAS: 効率的かつ効率的なニューラルネットワークのためのマルチグラニュラリティアーキテクチャ探索
- Authors: Xiaoyun Liu, Divya Saxena, Jiannong Cao, Yuqing Zhao, Penghui Ruan
- Abstract要約: 微分可能なアーキテクチャサーチ(DAS)はニューラルアーキテクチャサーチ(NAS)に革命をもたらす
既存のDAS法は、粗粒度操作レベル探索のみを行うか、カーネルレベルおよび重みレベル単位の残りの比率を手作業で定義する。
我々は,多粒度検索空間を包括的かつメモリ効率よく探索することを目的とした統合フレームワークである多粒度アーキテクチャサーチ(MGAS)を導入する。
- 参考スコア(独自算出の注目度): 10.641875933652647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable architecture search (DAS) revolutionizes neural architecture
search (NAS) with time-efficient automation, transitioning from discrete
candidate sampling and evaluation to differentiable super-net optimization and
discretization. However, existing DAS methods either only conduct
coarse-grained operation-level search or manually define the remaining ratios
for fine-grained kernel-level and weight-level units, which fail to
simultaneously optimize model size and model performance. Furthermore, these
methods compromise search quality to reduce memory consumption. To tackle these
issues, we introduce multi-granularity architecture search (MGAS), a unified
framework which aims to comprehensively and memory-efficiently explore the
multi-granularity search space to discover both effective and efficient neural
networks. Specifically, we learn discretization functions specific to each
granularity level to adaptively determine the remaining ratios according to the
evolving architecture. This ensures an optimal balance among units of different
granularity levels for different target model sizes. Considering the memory
demands, we break down the super-net optimization and discretization into
multiple sub-net stages. Nevertheless, the greedy nature of this approach may
introduce bias in the early stages. To compensate for the bias, we propose
progressive re-evaluation to allow for re-pruning and regrowing of previous
units during subsequent stages. Extensive experiments on CIFAR-10, CIFAR-100
and ImageNet demonstrate that MGAS outperforms other state-of-the-art methods
in achieving a better trade-off between model performance and model size.
- Abstract(参考訳): 微分可能なアーキテクチャサーチ(DAS)は、時間効率の自動化によってニューラルネットワークサーチ(NAS)に革命をもたらし、離散的な候補サンプリングと評価から微分可能なスーパーネット最適化と離散化へと移行する。
しかし、既存のDAS法は、粗粒度操作レベル探索のみを行うか、または、モデルサイズとモデル性能を同時に最適化できない粒度カーネルレベルおよび重みレベルユニットの残りの比率を手動で定義する。
さらに、これらの手法は、メモリ消費を減らすために検索品質を損なう。
これらの課題に対処するために,多粒度アーキテクチャ探索(MGAS)を導入した。これは,多粒度検索空間を包括的かつメモリ効率よく探索し,効率的かつ効率的なニューラルネットワークを発見することを目的とした統合フレームワークである。
具体的には,各粒度レベルに特有の離散化関数を学習し,進化するアーキテクチャに応じて残りの比率を適応的に決定する。
これにより、異なる対象モデルサイズに対して、異なる粒度レベルの単位間の最適なバランスが確保される。
メモリ要求を考慮して、スーパーネット最適化と離散化を複数のサブネットステージに分割する。
それでも、このアプローチの強欲な性質は、初期段階に偏見をもたらす可能性がある。
バイアスを補うために, 先行ユニットの再収穫と再成長を可能にするために, 漸進的再評価を提案する。
CIFAR-10、CIFAR-100、ImageNetの大規模な実験により、MGASはモデル性能とモデルサイズとのトレードオフを改善するために、他の最先端の手法よりも優れていることが示された。
関連論文リスト
- RedTest: Towards Measuring Redundancy in Deep Neural Networks Effectively [10.812755570974929]
深層学習モデル構造における冗長度を測定するために,モデル構造冗長スコア(MSRS)を用いる。
MSRSは、多くの最先端モデルにおける冗長性の問題を明らかにし、評価するのに効果的である。
最適なモデル構造を探索するための新しい冗長性認識アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-11-15T14:36:07Z) - Q-VLM: Post-training Quantization for Large Vision-Language Models [73.19871905102545]
本稿では,大規模視覚言語モデル(LVLM)の学習後量子化フレームワークを提案する。
視覚言語モデル全体の離散化誤差に大きな影響を及ぼす層間依存関係を抽出し、この依存関係を最適な量子化戦略に組み込む。
実験の結果,提案手法はメモリを2.78倍圧縮し,出力速度を約13B LLaVAモデルで1.44倍向上させることができた。
論文 参考訳(メタデータ) (2024-10-10T17:02:48Z) - POMONAG: Pareto-Optimal Many-Objective Neural Architecture Generator [4.09225917049674]
Transferable NASが登場し、データセット依存からタスク依存への探索プロセスを一般化した。
本稿では多目的拡散プロセスを通じて拡散NAGを拡張するPOMONAGを紹介する。
結果は、NAS201とMobileNetV3の2つの検索スペースで検証され、15の画像分類データセットで評価された。
論文 参考訳(メタデータ) (2024-09-30T16:05:29Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - Effective and Fast: A Novel Sequential Single Path Search for
Mixed-Precision Quantization [45.22093693422085]
混合精度量子化モデルは、異なる層の感度に応じて異なる量子化ビット精度にマッチし、優れた性能を達成できます。
いくつかの制約に従ってディープニューラルネットワークにおける各層の量子化ビット精度を迅速に決定することは難しい問題である。
混合精度量子化のための新規なシーケンシャルシングルパス探索(SSPS)法を提案する。
論文 参考訳(メタデータ) (2021-03-04T09:15:08Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - AlphaGAN: Fully Differentiable Architecture Search for Generative
Adversarial Networks [15.740179244963116]
GAN (Generative Adversarial Networks) はミニマックスゲーム問題として定式化され、ジェネレータは差別者に対する対戦学習によって実際のデータ分布にアプローチしようとする。
本研究は,ネットワークアーキテクチャの観点からのモデル学習を促進することを目的として,GANに自動アーキテクチャ探索の最近の進歩を取り入れた。
我々は,αGANと呼ばれる,生成的敵ネットワークのための,完全に差別化可能な検索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-16T13:27:30Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。