論文の概要: Making Differentiable Architecture Search less local
- arxiv url: http://arxiv.org/abs/2104.10450v1
- Date: Wed, 21 Apr 2021 10:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:21:14.274885
- Title: Making Differentiable Architecture Search less local
- Title(参考訳): 差別化可能なアーキテクチャ検索をローカルに
- Authors: Erik Bodin, Federico Tomasi, Zhenwen Dai
- Abstract要約: 微分可能なニューラルネットワークアーキテクチャ検索(DARTS)は、検索効率を劇的に向上させる有望なNASアプローチである。
これは、検索がしばしば有害なアーキテクチャにつながるパフォーマンスの崩壊に苦しむことが示されています。
DARTS問題の定式化を変更することなく、空間をよりよく探索できる、よりグローバルな最適化スキームを開発する。
- 参考スコア(独自算出の注目度): 9.869449181400466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) is a recent methodology for automating the
design of neural network architectures. Differentiable neural architecture
search (DARTS) is a promising NAS approach that dramatically increases search
efficiency. However, it has been shown to suffer from performance collapse,
where the search often leads to detrimental architectures. Many recent works
try to address this issue of DARTS by identifying indicators for early
stopping, regularising the search objective to reduce the dominance of some
operations, or changing the parameterisation of the search problem. In this
work, we hypothesise that performance collapses can arise from poor local
optima around typical initial architectures and weights. We address this issue
by developing a more global optimisation scheme that is able to better explore
the space without changing the DARTS problem formulation. Our experiments show
that our changes in the search algorithm allow the discovery of architectures
with both better test performance and fewer parameters.
- Abstract(参考訳): neural architecture search(nas)は、ニューラルネットワークアーキテクチャの設計を自動化するための最近の手法である。
微分可能なニューラルネットワーク探索(DARTS)は、探索効率を劇的に向上させる有望なNASアプローチである。
しかし、探索がしばしば有害なアーキテクチャに繋がるパフォーマンスの崩壊に悩まされていることが示されている。
最近の多くの研究はダーツのこの問題に対処し、早期停止の指標を特定したり、いくつかの操作の優位を減らすために探索目標を定式化したり、探索問題のパラメータを変更したりしている。
本研究は,典型的な初期アーキテクチャと重みに関する局所最適性に乏しいことから,性能崩壊が発生すると仮定する。
我々は、DARTS問題を定式化することなく、空間をよりよく探索できるよりグローバルな最適化スキームを開発することでこの問題に対処する。
実験の結果,検索アルゴリズムの変更により,より優れたテスト性能と少ないパラメータでアーキテクチャを発見できることがわかった。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - $\beta$-DARTS: Beta-Decay Regularization for Differentiable Architecture
Search [85.84110365657455]
本研究では,DARTSに基づくNAS探索過程を正規化するために,ベータデカイと呼ばれるシンプルだが効率的な正規化手法を提案する。
NAS-Bench-201の実験結果から,提案手法は探索過程の安定化に有効であり,探索されたネットワークを異なるデータセット間で転送しやすくする。
論文 参考訳(メタデータ) (2022-03-03T11:47:14Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Poisoning the Search Space in Neural Architecture Search [0.0]
我々は,探索空間におけるデータ中毒攻撃に対して,効率的なNASと呼ばれるアルゴリズムのロバスト性を評価する。
以上の結果から,NASを用いたアーキテクチャ探索の課題に対する洞察が得られた。
論文 参考訳(メタデータ) (2021-06-28T05:45:57Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Neural Architecture Generator Optimization [9.082931889304723]
我々はまず,NASを最適ネットワーク生成器の探索問題として検討する。
本稿では,非常に多様なネットワークタイプを表現可能な,階層的でグラフベースの検索空間を提案する。
論文 参考訳(メタデータ) (2020-04-03T06:38:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。