論文の概要: Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification
- arxiv url: http://arxiv.org/abs/2206.02098v1
- Date: Sun, 5 Jun 2022 05:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 11:48:00.925922
- Title: Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification
- Title(参考訳): 画像分類における識別可能なニューラルアーキテクチャ探索のための探索空間適応
- Authors: Youngkee Kim, Soyi Jung, Minseok Choi and Joongheon Kim
- Abstract要約: 微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 15.641353388251465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep neural networks achieve unprecedented performance in various tasks,
neural architecture search (NAS), a research field for designing neural network
architectures with automated processes, is actively underway. More recently,
differentiable NAS has a great impact by reducing the search cost to the level
of training a single network. Besides, the search space that defines candidate
architectures to be searched directly affects the performance of the final
architecture. In this paper, we propose an adaptation scheme of the search
space by introducing a search scope. The effectiveness of proposed method is
demonstrated with ProxylessNAS for the image classification task. Furthermore,
we visualize the trajectory of architecture parameter updates and provide
insights to improve the architecture search.
- Abstract(参考訳): ディープニューラルネットワークは様々なタスクで前例のないパフォーマンスを達成しているため、ニューラルネットワークアーキテクチャを自動プロセスで設計する研究分野であるneural architecture search(nas)が活発に進行中である。
最近では、差別化可能なnasは、検索コストを単一のネットワークのトレーニングレベルに引き下げることで大きな影響を与える。
さらに、候補アーキテクチャを定義する検索空間は、最終アーキテクチャの性能に直接的な影響を与える。
本稿では,探索スコープを導入することにより,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
さらに,アーキテクチャパラメータ更新の軌跡を可視化し,アーキテクチャ検索を改善するための洞察を提供する。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [54.99121380536659]
眼球運動バイオメトリックスは、高い安全性の識別により注目されている。
深層学習(DL)モデルは近年,眼球運動認識に成功している。
DLアーキテクチャはまだ人間の事前知識によって決定されている。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - SuperNet in Neural Architecture Search: A Taxonomic Survey [14.037182039950505]
このサーベイは、ウェイトシェアリングを使用して、すべてのアーキテクチャをサブモデルとして組み立てるニューラルネットワークを構築するスーパーネット最適化に焦点を当てている。
データ側最適化、低ランク相関緩和、多数のデプロイメントシナリオに対するトランスファー可能なNASなどです。
論文 参考訳(メタデータ) (2022-04-08T08:29:52Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Full-attention based Neural Architecture Search using Context
Auto-regression [18.106878746065536]
注意ネットワークを検索するためのフルアテンションに基づくNAS手法を提案する。
ネットワークの異なる層に様々な注意操作を適用できるステージワイド検索空間を構築する。
コンテキスト自動回帰を用いた自己教師付き検索アルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-11-13T16:07:37Z) - Making Differentiable Architecture Search less local [9.869449181400466]
微分可能なニューラルネットワークアーキテクチャ検索(DARTS)は、検索効率を劇的に向上させる有望なNASアプローチである。
これは、検索がしばしば有害なアーキテクチャにつながるパフォーマンスの崩壊に苦しむことが示されています。
DARTS問題の定式化を変更することなく、空間をよりよく探索できる、よりグローバルな最適化スキームを開発する。
論文 参考訳(メタデータ) (2021-04-21T10:36:43Z) - Enhanced Gradient for Differentiable Architecture Search [17.431144144044968]
ネットワーク性能の同時改善とネットワークの複雑性低減を目的としたニューラルネットワークアーキテクチャ探索アルゴリズムを提案する。
提案するフレームワークは,ブロックレベルの検索とネットワークレベルの検索という2段階のネットワークアーキテクチャを自動構築する。
実験の結果,本手法は画像分類において,すべての手作りネットワークよりも優れていた。
論文 参考訳(メタデータ) (2021-03-23T13:27:24Z) - Task-Aware Neural Architecture Search [33.11791812491669]
本稿では,ベースタスクのモデル辞書と対象タスクと辞書の原子との類似性を利用して,ニューラルアーキテクチャ探索のための新しいフレームワークを提案する。
勾配に基づく探索アルゴリズムを導入することにより、ネットワークを完全に訓練することなく、検索空間の最良のアーキテクチャを評価し、発見することができる。
論文 参考訳(メタデータ) (2020-10-27T00:10:40Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Breaking the Curse of Space Explosion: Towards Efficient NAS with
Curriculum Search [94.46818035655943]
本稿では,小さな検索空間から始まるカリキュラム検索手法を提案し,学習知識を徐々に取り入れて広い空間での検索をガイドする。
提案手法により,CNAS法は探索効率を大幅に向上し,既存のNAS法よりも優れたアーキテクチャを求めることができる。
論文 参考訳(メタデータ) (2020-07-07T02:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。