論文の概要: Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets
- arxiv url: http://arxiv.org/abs/2305.16948v1
- Date: Fri, 26 May 2023 14:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 14:24:11.760112
- Title: Meta-prediction Model for Distillation-Aware NAS on Unseen Datasets
- Title(参考訳): 未確認データセット上の蒸留対応NASのメタ予測モデル
- Authors: Hayeon Lee, Sohyun An, Minseon Kim, Sung Ju Hwang
- Abstract要約: Distillation-Aware Neural Architecture Search (DaNAS) は、最適な学生アーキテクチャを探すことを目的としている。
本稿では,あるアーキテクチャの最終的な性能をデータセット上で予測できる,蒸留対応のメタ精度予測モデルDaSSを提案する。
- 参考スコア(独自算出の注目度): 55.2118691522524
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distillation-aware Neural Architecture Search (DaNAS) aims to search for an
optimal student architecture that obtains the best performance and/or
efficiency when distilling the knowledge from a given teacher model. Previous
DaNAS methods have mostly tackled the search for the neural architecture for
fixed datasets and the teacher, which are not generalized well on a new task
consisting of an unseen dataset and an unseen teacher, thus need to perform a
costly search for any new combination of the datasets and the teachers. For
standard NAS tasks without KD, meta-learning-based computationally efficient
NAS methods have been proposed, which learn the generalized search process over
multiple tasks (datasets) and transfer the knowledge obtained over those tasks
to a new task. However, since they assume learning from scratch without KD from
a teacher, they might not be ideal for DaNAS scenarios. To eliminate the
excessive computational cost of DaNAS methods and the sub-optimality of rapid
NAS methods, we propose a distillation-aware meta accuracy prediction model,
DaSS (Distillation-aware Student Search), which can predict a given
architecture's final performances on a dataset when performing KD with a given
teacher, without having actually to train it on the target task. The
experimental results demonstrate that our proposed meta-prediction model
successfully generalizes to multiple unseen datasets for DaNAS tasks, largely
outperforming existing meta-NAS methods and rapid NAS baselines. Code is
available at https://github.com/CownowAn/DaSS
- Abstract(参考訳): 蒸留対応ニューラルアーキテクチャサーチ(DaNAS)は、与えられた教師モデルから知識を蒸留する際に最適な性能と効率を得る最適な学生アーキテクチャを探索することを目的としている。
従来のDaNAS手法は、固定データセットと教師のニューラルアーキテクチャの探索に主に取り組んだが、これは目に見えないデータセットと目に見えない教師からなる新しいタスクでうまく一般化されていないため、データセットと教師の新たな組み合わせを高価な検索を行う必要がある。
KDのない標準的なNASタスクに対しては、メタラーニングに基づく計算効率の高いNAS手法が提案され、複数のタスク(データセット)上で一般化された探索過程を学習し、それらのタスク上で得られた知識を新しいタスクに転送する。
しかし、教師のKDを使わずにゼロから学習すると仮定するため、DaNASシナリオには適さないかもしれない。
そこで本研究では,danas法における計算コストの過大な低減と高速nas法の最適化を実現するため,目的とするタスクで実際にkdを行うことなく,データセット上でのアーキテクチャの最終性能を予測できる蒸留・アウェアなメタ精度予測モデルdass(蒸留・アウェア学生探索)を提案する。
実験結果から,提案したメタ予測モデルは,既存のメタNAS法と高速NASベースラインよりも優れており,DaNASタスクの未確認データセットの一般化に成功していることが示された。
コードはhttps://github.com/CownowAn/DaSSで入手できる。
関連論文リスト
- Fair Differentiable Neural Network Architecture Search for Long-Tailed Data with Self-Supervised Learning [0.0]
本稿では,NASの長期化データセットにおける探索・訓練性能の向上について検討する。
まず、NASに関する関連する研究と、長い尾を持つデータセットに対するディープラーニング手法について論じる。
次に、自己教師付き学習と公正な差別化可能なNASを統合したSSF-NASと呼ばれる既存の研究に焦点を当てる。
最後に,性能評価のためのCIFAR10-LTデータセットについて実験を行った。
論文 参考訳(メタデータ) (2024-06-19T12:39:02Z) - Generalization Properties of NAS under Activation and Skip Connection
Search [66.8386847112332]
ニューラルネットワーク探索(NAS)の一般化特性を統一的枠組みの下で検討する。
我々は, 有限幅政権下でのニューラル・タンジェント・カーネル(NTK)の最小固有値の下(および上)境界を導出する。
トレーニングなしでもNASがトップパフォーマンスアーキテクチャを選択する方法を示す。
論文 参考訳(メタデータ) (2022-09-15T12:11:41Z) - UnrealNAS: Can We Search Neural Architectures with Unreal Data? [84.78460976605425]
ニューラルアーキテクチャサーチ(NAS)はディープニューラルネットワーク(DNN)の自動設計において大きな成功を収めた。
これまでの研究は、NASに地道ラベルを持つことの必要性を分析し、幅広い関心を喚起した。
NASが有効であるためには、実際のデータが必要であるかどうか、さらに疑問を呈する。
論文 参考訳(メタデータ) (2022-05-04T16:30:26Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - NAS-Bench-360: Benchmarking Diverse Tasks for Neural Architecture Search [18.9676056830197]
既存のニューラルアーキテクチャサーチ(NAS)ベンチマークとアルゴリズムは、よく研究されたタスクのパフォーマンスを優先している。
我々は、畳み込みニューラルネットワーク(CNN)のための最先端NAS手法を評価するベンチマークスイートであるNAS-Bench-360を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:13:18Z) - Rapid Neural Architecture Search by Learning to Generate Graphs from
Datasets [42.993720854755736]
本稿では,データセットと事前学習ネットワークからなるデータベース上で1度トレーニングした,効率的なニューラルサーチ(NAS)フレームワークを提案する。
我々は,NAS-Bench 201の検索空間から,ImageNet-1Kのサブセットとアーキテクチャに基づいてメタ学習を行った。
論文 参考訳(メタデータ) (2021-07-02T06:33:59Z) - Accelerating Neural Architecture Search via Proxy Data [17.86463546971522]
ニューラルアーキテクチャ探索(NAS)に適した新しいプロキシデータ選択法を提案する。
提案された選択でDARTSを実行するには、CIFAR-10で40分、単一のGPUでImageNetで7.5時間しかかからない。
提案した選択を用いてImageNetで検索したアーキテクチャが逆CIFAR-10に転送されると、2.4%の最先端テストエラーが生成される。
論文 参考訳(メタデータ) (2021-06-09T03:08:53Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z) - DSNAS: Direct Neural Architecture Search without Parameter Retraining [112.02966105995641]
この観測に基づいて,タスク固有のエンドツーエンドであるNASの新たな問題定義を提案する。
低バイアスモンテカルロ推定でアーキテクチャとパラメータを同時に最適化する効率的な微分可能なNASフレームワークであるDSNASを提案する。
DSNASは、420GPU時間でImageNetで同等の精度(74.4%)のネットワークを発見し、総時間を34%以上削減した。
論文 参考訳(メタデータ) (2020-02-21T04:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。