論文の概要: A Semi-Supervised Assessor of Neural Architectures
- arxiv url: http://arxiv.org/abs/2005.06821v1
- Date: Thu, 14 May 2020 09:02:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:40:25.440748
- Title: A Semi-Supervised Assessor of Neural Architectures
- Title(参考訳): 半教師付きニューラルネットワーク評価器
- Authors: Yehui Tang, Yunhe Wang, Yixing Xu, Hanting Chen, Chunjing Xu, Boxin
Shi, Chao Xu, Qi Tian, Chang Xu
- Abstract要約: 我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
- 参考スコア(独自算出の注目度): 157.76189339451565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) aims to automatically design deep neural
networks of satisfactory performance. Wherein, architecture performance
predictor is critical to efficiently value an intermediate neural architecture.
But for the training of this predictor, a number of neural architectures and
their corresponding real performance often have to be collected. In contrast
with classical performance predictor optimized in a fully supervised way, this
paper suggests a semi-supervised assessor of neural architectures. We employ an
auto-encoder to discover meaningful representations of neural architectures.
Taking each neural architecture as an individual instance in the search space,
we construct a graph to capture their intrinsic similarities, where both
labeled and unlabeled architectures are involved. A graph convolutional neural
network is introduced to predict the performance of architectures based on the
learned representations and their relation modeled by the graph. Extensive
experimental results on the NAS-Benchmark-101 dataset demonstrated that our
method is able to make a significant reduction on the required fully trained
architectures for finding efficient architectures.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は、良好な性能を持つディープニューラルネットワークを自動設計することを目的としている。
一方、アーキテクチャ性能予測器は、中間的ニューラルネットワークアーキテクチャを効率的に評価することが重要である。
しかし、この予測器のトレーニングのためには、多くのニューラルネットワークとその実際のパフォーマンスを収集する必要がある。
従来の性能予測器を完全教師付きで最適化するのとは対照的に,ニューラルネットワークの半教師付き評価器を提案する。
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
各ニューラルネットワークアーキテクチャを検索空間の個々のインスタンスとして取り込んで、ラベル付きアーキテクチャとラベルなしアーキテクチャの両方が関与する固有の類似性を捉えるグラフを構築する。
グラフ畳み込みニューラルネットワークを導入し、学習した表現とそのグラフによってモデル化された関係に基づいてアーキテクチャの性能を予測する。
NAS-Benchmark-101データセットの大規模な実験結果から,本手法は効率的なアーキテクチャを見つけるために必要な完全トレーニングアーキテクチャを大幅に削減できることが示された。
関連論文リスト
- Neural Architecture Retrieval [27.063268631346713]
我々は、クエリニューラルアーキテクチャに似た設計で既存のニューラルアーキテクチャの集合を検索するニューラルアーキテクチャ検索という新しい問題を定義する。
既存のグラフ事前学習戦略は、グラフのサイズとモチーフのため、ニューラルネットワークの計算グラフに対処できない。
正確なグラフ表現学習を実現するために,マルチレベルコントラスト学習を導入する。
論文 参考訳(メタデータ) (2023-07-16T01:56:41Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Network Graph Based Neural Architecture Search [57.78724765340237]
我々は、対応するグラフを書き換えてニューラルネットワークを探索し、グラフ特性によるアーキテクチャ性能の予測を行う。
グラフ空間全体にわたって機械学習を行わないため、探索プロセスは極めて効率的である。
論文 参考訳(メタデータ) (2021-12-15T00:12:03Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - Neural Architecture Performance Prediction Using Graph Neural Networks [17.224223176258334]
グラフニューラルネットワーク(GNN)に基づくニューラルネットワーク性能予測のための代理モデルを提案する。
構造不明アーキテクチャのニューラルネットワーク性能予測におけるこの代理モデルの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-19T09:33:57Z) - Neural Architecture Optimization with Graph VAE [21.126140965779534]
連続空間におけるネットワークアーキテクチャを最適化するための効率的なNAS手法を提案する。
フレームワークは、エンコーダ、パフォーマンス予測器、複雑性予測器、デコーダの4つのコンポーネントを共同で学習する。
論文 参考訳(メタデータ) (2020-06-18T07:05:48Z) - Does Unsupervised Architecture Representation Learning Help Neural
Architecture Search? [22.63641173256389]
既存のニューラルアーキテクチャサーチ(NAS)手法は、スケールが良くない離散符号化を用いてニューラルアーキテクチャをエンコードするか、アーキテクチャ表現を共同で学習し、探索バイアスを引き起こすような表現上でアーキテクチャ探索を最適化するための教師付き学習ベースの手法を採用する。
アーキテクチャ表現学習と探索が組み合わさっていれば,ニューラルネットワークの構造的特性を潜時空間に保持することは困難であり,その結果,探索性能は低下する。
論文 参考訳(メタデータ) (2020-06-12T04:15:34Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。