論文の概要: aw_nas: A Modularized and Extensible NAS framework
- arxiv url: http://arxiv.org/abs/2012.10388v1
- Date: Wed, 25 Nov 2020 13:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:19:52.756971
- Title: aw_nas: A Modularized and Extensible NAS framework
- Title(参考訳): aw_nas: モジュール化され拡張可能なnasフレームワーク
- Authors: Xuefei Ning, Changcheng Tang, Wenshuo Li, Songyi Yang, Tianchen Zhao,
Niansong Zhang, Tianyi Lu, Shuang Liang, Huazhong Yang, Yu Wang
- Abstract要約: aw_nasはオープンソースのPythonフレームワークで、さまざまなニューラルネットワーク検索(NAS)アルゴリズムを実装している。
様々なタイプの主流NASアルゴリズムの結果を再現するために使用することができる。
- 参考スコア(独自算出の注目度): 17.516100955503113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has received extensive attention due to its
capability to discover neural network architectures in an automated manner.
aw_nas is an open-source Python framework implementing various NAS algorithms
in a modularized manner. Currently, aw_nas can be used to reproduce the results
of mainstream NAS algorithms of various types. Also, due to the modularized
design, one can simply experiment with different NAS algorithms for various
applications with awnas (e.g., classification, detection, text modeling, fault
tolerance, adversarial robustness, hardware efficiency, and etc.). Codes and
documentation are available at https://github.com/walkerning/aw_nas.
- Abstract(参考訳): Neural Architecture Search (NAS)は、ニューラルネットワークアーキテクチャを自動で発見する能力のために、広く注目を集めている。
aw_nasは様々なnasアルゴリズムをモジュール化したオープンソースのpythonフレームワークである。
現在、aw_nasは様々なタイプのnasアルゴリズムの結果を再現するために使うことができる。
また、モジュール化設計のため、awnas(分類、検出、テキストモデリング、フォールトトレランス、逆ロバスト性、ハードウェア効率など)を使った様々なアプリケーションに対して、様々なnasアルゴリズムを単に試すことができる。
コードとドキュメントはhttps://github.com/walkerning/aw_nasで入手できる。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DDNAS: Discretized Differentiable Neural Architecture Search for Text
Classification [9.023847175654602]
本稿では,新しいNAS法である離散微分可能ニューラルネットワーク(DDNAS)を提案する。
連続緩和アーキテクチャ表現により、DDNASは勾配勾配を利用して探索を最適化できる。
また,テキスト表現における潜在階層分類をモデル化するために,各検索ノードに課される相互情報を用いた新たな離散化層を提案する。
論文 参考訳(メタデータ) (2023-07-12T08:33:16Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - Revisiting Neural Architecture Search [0.0]
我々は、人間の努力を伴わずに完全なニューラルネットワークを探索する新しいアプローチを提案し、AutoML-nirvanaに一歩近づいた。
提案手法は,ニューラルネットワークにマッピングされた完全なグラフから始まり,探索空間の探索と利用のバランスをとることにより,接続と操作を探索する。
論文 参考訳(メタデータ) (2020-10-12T13:57:30Z) - DSNAS: Direct Neural Architecture Search without Parameter Retraining [112.02966105995641]
この観測に基づいて,タスク固有のエンドツーエンドであるNASの新たな問題定義を提案する。
低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なNASフレームワークであるDSNASを提案する。
DSNASは、420GPU時間でImageNetで同等の精度(74.4%)のネットワークを発見し、総時間を34%以上削減した。
論文 参考訳(メタデータ) (2020-02-21T04:41:47Z) - NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture
Search [55.12928953187342]
我々は,NAS-Bench-101:NAS-Bench-201の拡張を提案する。
NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。
我々はNASアルゴリズムの新しい設計にインスピレーションを与えることができる微粒化損失や精度などの付加的な診断情報を提供する。
論文 参考訳(メタデータ) (2020-01-02T05:28:26Z) - Modeling Neural Architecture Search Methods for Deep Networks [9.561123408923489]
本稿では,ニューラルアーキテクチャ探索法(NAS)の一般化モデルを提案する。
重要な関心領域を分類し識別するための異なる設計アプローチを比較することが可能である。
論文 参考訳(メタデータ) (2019-12-31T05:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。