論文の概要: RepNAS: Searching for Efficient Re-parameterizing Blocks
- arxiv url: http://arxiv.org/abs/2109.03508v1
- Date: Wed, 8 Sep 2021 09:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:33:10.628684
- Title: RepNAS: Searching for Efficient Re-parameterizing Blocks
- Title(参考訳): repnas: 効率的な再パラメータブロックの探索
- Authors: Mingyang Zhang, Xinyi Yu, Jingtao Rong, Linlin Ou, Feng Gao
- Abstract要約: 1段階NAS手法であるRepNASは、分岐数制約の下で各層に対して最適な多様な分岐ブロック(ODBB)を効率的に探索する。
実験の結果,探索されたODBBは,手動分岐ブロック(DBB)を効率よく越えることが可能であった。
- 参考スコア(独自算出の注目度): 4.146471448631912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the past years, significant improvements in the field of neural
architecture search(NAS) have been made. However, it is still challenging to
search for efficient networks due to the gap between the searched constraint
and real inference time exists. To search for a high-performance network with
low inference time, several previous works set a computational complexity
constraint for the search algorithm. However, many factors affect the speed of
inference(e.g., FLOPs, MACs). The correlation between a single indicator and
the latency is not strong. Currently, some re-parameterization(Rep) techniques
are proposed to convert multi-branch to single-path architecture which is
inference-friendly. Nevertheless, multi-branch architectures are still
human-defined and inefficient. In this work, we propose a new search space that
is suitable for structural re-parameterization techniques. RepNAS, a one-stage
NAS approach, is present to efficiently search the optimal diverse branch
block(ODBB) for each layer under the branch number constraint. Our experimental
results show the searched ODBB can easily surpass the manual diverse branch
block(DBB) with efficient training. Code and models will be available sooner.
- Abstract(参考訳): 近年,ニューラル・アーキテクチャ・サーチ(NAS)の分野での大幅な改良がなされている。
しかし,探索制約と実推定時間との差のため,効率的なネットワークを探すことは依然として困難である。
推論時間の低い高性能ネットワークを探索するために、いくつかの先行研究が探索アルゴリズムの計算複雑性制約を設定した。
しかし、多くの要因が推論の速度に影響を与える(例えば、FLOP、MAC)。
単一の指標とレイテンシの相関は強くない。
現在,マルチブランチを推論に適した単一パスアーキテクチャに変換するために,再パラメータ化(Rep)手法が提案されている。
しかし、マルチブランチアーキテクチャはまだ人間定義であり、非効率である。
本研究では,構造的再パラメータ化手法に適した新しい探索空間を提案する。
1段階NAS手法であるRepNASは、分岐数制約の下で各層に対して最適な多様な分岐ブロック(ODBB)を効率的に探索する。
実験の結果,探索されたODBBは,手動分岐ブロック(DBB)を効率よく越えることが可能であった。
コードとモデルはより早く利用可能になる。
関連論文リスト
- Lightweight Diffusion Models with Distillation-Based Block Neural
Architecture Search [55.41583104734349]
拡散蒸留に基づくブロックワイドニューラルネットワークサーチ(NAS)により拡散モデルの構造的冗長性を自動的に除去することを提案する。
事前訓練を受けた教師がより多い場合、DiffNASを利用して、教師よりもパフォーマンスが良い最小限のアーキテクチャを探索する。
従来のブロックワイズNAS法とは異なり、DiffNASはブロックワイズ局所探索戦略と、関節ダイナミックロスを伴う再訓練戦略を含んでいる。
論文 参考訳(メタデータ) (2023-11-08T12:56:59Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - Zero-Cost Proxies Meet Differentiable Architecture Search [20.957570100784988]
微分可能なニューラルアーキテクチャサーチ(NAS)は近年大きな注目を集めている。
DARTSの成功にもかかわらず、一部のケースでは堅牢性に欠ける。
微分可能なNASの文脈における新しい操作選択パラダイムを提案する。
論文 参考訳(メタデータ) (2021-06-12T15:33:36Z) - Making Differentiable Architecture Search less local [9.869449181400466]
微分可能なニューラルネットワークアーキテクチャ検索(DARTS)は、検索効率を劇的に向上させる有望なNASアプローチである。
これは、検索がしばしば有害なアーキテクチャにつながるパフォーマンスの崩壊に苦しむことが示されています。
DARTS問題の定式化を変更することなく、空間をよりよく探索できる、よりグローバルな最適化スキームを開発する。
論文 参考訳(メタデータ) (2021-04-21T10:36:43Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Towards Improving the Consistency, Efficiency, and Flexibility of
Differentiable Neural Architecture Search [84.4140192638394]
最も微分可能なニューラルアーキテクチャ探索法は、探索用のスーパーネットを構築し、そのサブグラフとしてターゲットネットを導出する。
本稿では,エンジンセルとトランジットセルからなるEnTranNASを紹介する。
また,検索処理の高速化を図るため,メモリや計算コストの削減も図っている。
論文 参考訳(メタデータ) (2021-01-27T12:16:47Z) - Neural Architecture Search via Combinatorial Multi-Armed Bandit [43.29214413461234]
NASをCMAB(Combinial Multi-Armed Bandit)問題(CMAB-NAS)として定式化します。
これにより、大きな検索空間を小さなブロックに分解し、木探索手法をより効率的かつ効率的に適用することができます。
我々はNested Monte-Carlo Searchと呼ばれる木に基づく手法を用いてCMAB-NAS問題に取り組む。
CIFAR-10では,0.58GPU日で,最先端技術に匹敵する低エラー率を実現するセル構造を探索する。
論文 参考訳(メタデータ) (2021-01-01T23:29:33Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search [102.67142711824748]
CATCHは、転送可能なarChitecture searcHのための、Context-bAsed meTa強化学習アルゴリズムである。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
また、ImageNet、COCO、Cityscapesの競合ネットワークとしてクロスドメインアーキテクチャサーチを扱うこともできる。
論文 参考訳(メタデータ) (2020-07-18T09:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。