論文の概要: Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio
- arxiv url: http://arxiv.org/abs/2004.02767v1
- Date: Mon, 6 Apr 2020 15:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:04:03.549481
- Title: Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio
- Title(参考訳): ネットワーク調整:FLOPs利用率によるチャンネル検索
- Authors: Zhengsu Chen, Jianwei Niu, Lingxi Xie, Xuefeng Liu, Longhui Wei, Qi
Tian
- Abstract要約: 本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 101.84651388520584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic designing computationally efficient neural networks has received
much attention in recent years. Existing approaches either utilize network
pruning or leverage the network architecture search methods. This paper
presents a new framework named network adjustment, which considers network
accuracy as a function of FLOPs, so that under each network configuration, one
can estimate the FLOPs utilization ratio (FUR) for each layer and use it to
determine whether to increase or decrease the number of channels on the layer.
Note that FUR, like the gradient of a non-linear function, is accurate only in
a small neighborhood of the current network. Hence, we design an iterative
mechanism so that the initial network undergoes a number of steps, each of
which has a small `adjusting rate' to control the changes to the network. The
computational overhead of the entire search process is reasonable, i.e.,
comparable to that of re-training the final model from scratch. Experiments on
standard image classification datasets and a wide range of base networks
demonstrate the effectiveness of our approach, which consistently outperforms
the pruning counterpart. The code is available at
https://github.com/danczs/NetworkAdjustment.
- Abstract(参考訳): 近年,計算効率の高いニューラルネットワークの自動設計が注目されている。
既存のアプローチではネットワークプルーニングを利用するか、ネットワークアーキテクチャの検索手法を利用する。
本稿では,ネットワークの精度をFLOPの関数として考慮し,各レイヤのFLOPs利用率(FUR)を推定し,それを用いて,各レイヤ上のチャネル数を増大または減少させるかを決定する,ネットワーク調整という新しいフレームワークを提案する。
非線型関数の勾配のように、FURは現在のネットワークの小さな近傍でのみ正確である。
したがって、初期ネットワークが複数のステップを踏むように反復的な機構を設計し、それぞれがネットワークの変更を制御するための「調整率」を小さくする。
検索プロセス全体の計算オーバーヘッドは合理的であり、つまり、最終的なモデルをスクラッチから再トレーニングするのと同等である。
標準画像分類データセットと広い範囲のベースネットワークを用いた実験により,提案手法の有効性が実証された。
コードはhttps://github.com/danczs/networkadjustmentで入手できる。
関連論文リスト
- CONetV2: Efficient Auto-Channel Size Optimization for CNNs [35.951376988552695]
本研究は,チャネルサイズのマイクロサーチ空間を調べることにより,計算制約のある環境において効率的な手法を提案する。
チャネルサイズ最適化に際し、ネットワークの異なる接続層内の依存関係を抽出する自動アルゴリズムを設計する。
また、テスト精度と高い相関性を持ち、個々のネットワーク層を解析できる新しいメトリクスも導入する。
論文 参考訳(メタデータ) (2021-10-13T16:17:19Z) - CONet: Channel Optimization for Convolutional Neural Networks [33.58529066005248]
畳み込みニューラルネットワーク(CNN)におけるチャネルサイズ最適化の検討
ネットワーク層をまたいだCNNのチャネルサイズを自動的に最適化する,効率的な動的スケーリングアルゴリズムであるConetを導入します。
CIFAR10/100およびImageNetデータセット上で実験を行い、ConetがResNet、DARTS、DARTS+空間で探索された効率的で正確なアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2021-08-15T21:48:25Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Keep the Gradients Flowing: Using Gradient Flow to Study Sparse Network
Optimization [16.85167651136133]
スパースネットワークのトレーニングについて、より広い視点で考察し、スパースモデルにおける正規化、最適化、アーキテクチャ選択の役割について考察する。
アーキテクチャ設計とトレーニング体制の側面を再考することにより,スパースネットワーク内の勾配流を改善することができることを示す。
論文 参考訳(メタデータ) (2021-02-02T18:40:26Z) - Channel Planting for Deep Neural Networks using Knowledge Distillation [3.0165431987188245]
我々は,植林と呼ばれる深層ニューラルネットワークのための新しいインクリメンタルトレーニングアルゴリズムを提案する。
本システムでは,ネットワーク性能向上のためのパラメータの少ない最適ネットワークアーキテクチャを探索できる。
CIFAR-10/100 や STL-10 などの異なるデータセットに対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-11-04T16:29:59Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。