論文の概要: NeuralArTS: Structuring Neural Architecture Search with Type Theory
- arxiv url: http://arxiv.org/abs/2110.08710v2
- Date: Tue, 19 Oct 2021 10:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 08:26:47.815830
- Title: NeuralArTS: Structuring Neural Architecture Search with Type Theory
- Title(参考訳): NeuralArTS: 型理論によるニューラルネットワーク検索の構造化
- Authors: Robert Wu, Nayan Saxena, Rohan Jain
- Abstract要約: 本稿では,ニューラルネットワーク型システム(NeuralArTS)と呼ばれる,構造化型システムにおけるネットワーク操作の無限集合を分類する新しいフレームワークを提案する。
本稿では,NeuralArTSを畳み込み層に適用し,今後の方向性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Architecture Search (NAS) algorithms automate the task of finding
optimal deep learning architectures given an initial search space of possible
operations. Developing these search spaces is usually a manual affair with
pre-optimized search spaces being more efficient, rather than searching from
scratch. In this paper we present a new framework called Neural Architecture
Type System (NeuralArTS) that categorizes the infinite set of network
operations in a structured type system. We further demonstrate how NeuralArTS
can be applied to convolutional layers and propose several future directions.
- Abstract(参考訳): neural architecture search (nas)アルゴリズムは、可能な操作の最初の検索空間から最適なディープラーニングアーキテクチャを見つけるタスクを自動化する。
これらの検索空間の開発は、通常、スクラッチから検索するよりも、事前最適化された検索空間の方が効率的である手作業による作業である。
本稿では,ニューラルネットワーク型システム(NeuralArTS)と呼ばれる,構造化型システムにおけるネットワーク操作の無限集合を分類するフレームワークを提案する。
我々はさらに,NeuralArTSを畳み込み層に適用し,今後の方向性を提案する。
関連論文リスト
- Neural Architecture Search: Insights from 1000 Papers [50.27255667347091]
ニューラルアーキテクチャサーチの組織的で包括的なガイドを提供する。
検索空間、アルゴリズム、スピードアップのテクニックを分類する。
ベンチマークやベストプラクティス,その他の調査,オープンソースライブラリなどのリソースについて論じる。
論文 参考訳(メタデータ) (2023-01-20T18:47:24Z) - HiveNAS: Neural Architecture Search using Artificial Bee Colony
Optimization [0.0]
本研究では,ニューラルネットワーク探索のための人工蜂コロニー最適化の実現可能性を評価する。
提案するフレームワークであるHiveNASは、最先端のSwarm IntelligenceベースのNASフレームワークを短時間で上回ります。
論文 参考訳(メタデータ) (2022-11-18T14:11:47Z) - Construction of Hierarchical Neural Architecture Search Spaces based on
Context-free Grammars [66.05096551112932]
文脈自由文法に基づく統一検索空間設計フレームワークを提案する。
それらの特性の強化と利用により,完全なアーキテクチャの探索を効果的に行うことができる。
既存のニューラルアーキテクチャ検索手法よりも検索戦略が優れていることを示す。
論文 参考訳(メタデータ) (2022-11-03T14:23:00Z) - Search Space Adaptation for Differentiable Neural Architecture Search in
Image Classification [15.641353388251465]
微分可能なニューラルネットワークサーチ(NAS)は、検索コストを単一のネットワークをトレーニングするレベルに削減することで大きな影響を与える。
本稿では,探索範囲を導入することで,探索空間の適応スキームを提案する。
画像分類タスクにおいて, ProxylessNAS を用いて提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-06-05T05:27:12Z) - A Novel Evolutionary Algorithm for Hierarchical Neural Architecture
Search [0.0]
本稿では,グローバルな探索空間に適用可能なニューラルアーキテクチャ探索のための新しい進化的アルゴリズムを提案する。
アルゴリズムのアーキテクチャ表現は、複数の階層的なモジュールでトポロジを整理し、設計プロセスはこの表現を利用して探索空間を探索する。
本手法をFashion-MNISTとNAS-Bench101に適用し,比較的少数の世代でそれぞれ9,3.2%,9,4.8%のアキュラシーを達成した。
論文 参考訳(メタデータ) (2021-07-18T16:19:53Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Contrastive Embeddings for Neural Architectures [1.90365714903665]
従来のブラックボックス最適化アルゴリズムは,修正することなく,ニューラルアーキテクチャサーチの最先端性能に到達可能であることを示す。
また,学習中の埋め込みの進化を示すとともに,異なる学習段階における埋め込みの活用に向けた将来の研究を動機付け,検索空間におけるネットワークの理解を深める。
論文 参考訳(メタデータ) (2021-02-08T14:06:35Z) - Task-Aware Neural Architecture Search [33.11791812491669]
本稿では,ベースタスクのモデル辞書と対象タスクと辞書の原子との類似性を利用して,ニューラルアーキテクチャ探索のための新しいフレームワークを提案する。
勾配に基づく探索アルゴリズムを導入することにより、ネットワークを完全に訓練することなく、検索空間の最良のアーキテクチャを評価し、発見することができる。
論文 参考訳(メタデータ) (2020-10-27T00:10:40Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。