論文の概要: Warm-starting DARTS using meta-learning
- arxiv url: http://arxiv.org/abs/2205.06355v1
- Date: Thu, 12 May 2022 20:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 00:34:40.353853
- Title: Warm-starting DARTS using meta-learning
- Title(参考訳): メタラーニングを用いたウォームスタートダート
- Authors: Matej Grobelnik and Joaquin Vanschoren
- Abstract要約: ニューラルネットワークサーチ(NAS)は、自動機械学習(AutoML)の分野で大きな可能性を秘めている。
微分可能アーキテクチャサーチ(DARTS)のためのメタラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.035753155957698
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Neural architecture search (NAS) has shown great promise in the field of
automated machine learning (AutoML). NAS has outperformed hand-designed
networks and made a significant step forward in the field of automating the
design of deep neural networks, thus further reducing the need for human
expertise. However, most research is done targeting a single specific task,
leaving research of NAS methods over multiple tasks mostly overlooked.
Generally, there exist two popular ways to find an architecture for some novel
task. Either searching from scratch, which is ineffective by design, or
transferring discovered architectures from other tasks, which provides no
performance guarantees and is probably not optimal. In this work, we present a
meta-learning framework to warm-start Differentiable architecture search
(DARTS). DARTS is a NAS method that can be initialized with a transferred
architecture and is able to quickly adapt to new tasks. A task similarity
measure is used to determine which transfer architecture is selected, as
transfer architectures found on similar tasks will likely perform better.
Additionally, we employ a simple meta-transfer architecture that was learned
over multiple tasks. Experiments show that warm-started DARTS is able to find
competitive performing architectures while reducing searching costs on average
by 60%.
- Abstract(参考訳): neural architecture search(nas)は、自動機械学習(automl)の分野で大きな可能性を秘めている。
nasは手設計のネットワークを上回っており、ディープニューラルネットワークの設計を自動化して、人間の専門知識の必要性を更に減らしている。
しかし、ほとんどの研究は単一の特定のタスクを対象として行われ、複数のタスクに対するnasメソッドの研究はほとんど見過ごされている。
一般的に、新しいタスクのためのアーキテクチャを見つけるには2つの一般的な方法があります。
設計に効果がないスクラッチから検索するか、他のタスクから検出されたアーキテクチャを転送するかのいずれかで、パフォーマンス保証がなく、おそらく最適ではない。
本研究では,微分可能なアーキテクチャ探索(DARTS)を温めるメタラーニングフレームワークを提案する。
DARTSはNASメソッドであり、転送されたアーキテクチャで初期化することができ、新しいタスクに迅速に適応することができる。
タスク類似度尺度は、どの転送アーキテクチャが選択されているかを決定するために使用される。
さらに、複数のタスクで学んだ単純なメタ転送アーキテクチャも採用しています。
実験によると、ウォームスタートしたDARTSは競争力のあるアーキテクチャを見つけることができ、検索コストを平均60%削減できる。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Design Principle Transfer in Neural Architecture Search via Large Language Models [37.004026595537006]
トランスファーブルニューラルアーキテクチャサーチ(TNAS)は、複数のタスクのための効率的なニューラルアーキテクチャを設計するために導入された。
TNASでは、従来の検索プロセスに蓄積されたアーキテクチャ知識を再利用して、新しいタスクのアーキテクチャ検索を温める。
本研究は,新しい伝達パラダイム,すなわち設計原理伝達を提案する。
論文 参考訳(メタデータ) (2024-08-21T04:27:44Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Rapid Neural Architecture Search by Learning to Generate Graphs from
Datasets [42.993720854755736]
本稿では,データセットと事前学習ネットワークからなるデータベース上で1度トレーニングした,効率的なニューラルサーチ(NAS)フレームワークを提案する。
我々は,NAS-Bench 201の検索空間から,ImageNet-1Kのサブセットとアーキテクチャに基づいてメタ学習を行った。
論文 参考訳(メタデータ) (2021-07-02T06:33:59Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z) - MTL-NAS: Task-Agnostic Neural Architecture Search towards
General-Purpose Multi-Task Learning [71.90902837008278]
汎用マルチタスク学習(GP-MTL)にニューラルアーキテクチャサーチ(NAS)を導入することを提案する。
異なるタスクの組み合わせに対応するため、GP-MTLネットワークを単一タスクのバックボーンに分割する。
また,探索されたアーキテクチャ間の性能ギャップを埋める単一ショット勾配に基づく探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-31T09:49:14Z) - DA-NAS: Data Adapted Pruning for Efficient Neural Architecture Search [76.9225014200746]
ニューラルネットワーク探索(NAS)における効率的な探索は中核的な問題である
本稿では,大規模ターゲットタスクのアーキテクチャを直接検索できるDA-NASを提案する。
従来の手法より2倍速く、精度は現在最先端であり、小さなFLOPの制約下で76.2%である。
論文 参考訳(メタデータ) (2020-03-27T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。