論文の概要: RATs-NAS: Redirection of Adjacent Trails on GCN for Neural Architecture
Search
- arxiv url: http://arxiv.org/abs/2305.04206v2
- Date: Tue, 9 May 2023 01:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:59:33.685361
- Title: RATs-NAS: Redirection of Adjacent Trails on GCN for Neural Architecture
Search
- Title(参考訳): RATs-NAS: ニューラルネットワーク探索のためのGCN上の隣接トレイルのリダイレクト
- Authors: Yu-Ming Zhang, Jun-Wei Hsieh, Chun-Chieh Lee, Kuo-Chin Fan
- Abstract要約: 本稿では,RATs-NAS(Redirected Adjacent Trails NAS)を提案する。
RATs-NAS は Redirected Adjacent Trails GCN (RATs-GCN) と Predictor-based Search Space Sampling (P3S) モジュールの2つのコンポーネントから構成されている。
- 参考スコア(独自算出の注目度): 6.117917355232904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Various hand-designed CNN architectures have been developed, such as VGG,
ResNet, DenseNet, etc., and achieve State-of-the-Art (SoTA) levels on different
tasks. Neural Architecture Search (NAS) now focuses on automatically finding
the best CNN architecture to handle the above tasks. However, the verification
of a searched architecture is very time-consuming and makes predictor-based
methods become an essential and important branch of NAS. Two commonly used
techniques to build predictors are graph-convolution networks (GCN) and
multilayer perceptron (MLP). In this paper, we consider the difference between
GCN and MLP on adjacent operation trails and then propose the Redirected
Adjacent Trails NAS (RATs-NAS) to quickly search for the desired neural network
architecture. The RATs-NAS consists of two components: the Redirected Adjacent
Trails GCN (RATs-GCN) and the Predictor-based Search Space Sampling (P3S)
module. RATs-GCN can change trails and their strengths to search for a better
neural network architecture. P3S can rapidly focus on tighter intervals of
FLOPs in the search space. Based on our observations on cell-based NAS, we
believe that architectures with similar FLOPs will perform similarly. Finally,
the RATs-NAS consisting of RATs-GCN and P3S beats WeakNAS, Arch-Graph, and
others by a significant margin on three sub-datasets of NASBench-201.
- Abstract(参考訳): VGG、ResNet、DenseNetなどのハンドデザインのCNNアーキテクチャが開発され、様々なタスクでState-of-the-Art(SoTA)レベルを達成する。
Neural Architecture Search (NAS)は、上記のタスクを処理するのに最適なCNNアーキテクチャを自動的に見つけることに焦点を当てている。
しかし、探索されたアーキテクチャの検証は非常に時間がかかり、予測子に基づく手法がNASの重要な分岐となる。
予測器を構築する2つの一般的なテクニックは、グラフ畳み込みネットワーク(GCN)と多層パーセプトロン(MLP)である。
本稿では,隣接する運転経路におけるGCNとMPPの違いを考察し,次に,所望のニューラルネットワークアーキテクチャを迅速に探索するRedirected Adjacent Trails NAS(RATs-NAS)を提案する。
RATs-NAS は Redirected Adjacent Trails GCN (RATs-GCN) と Predictor-based Search Space Sampling (P3S) モジュールの2つのコンポーネントから構成されている。
RATs-GCNは、より良いニューラルネットワークアーキテクチャを探すためのトレイルとその強みを変更することができる。
p3は検索空間でフラップの間隔を短くすることに集中することができる。
細胞性NASの観察から、同様のFLOPを持つアーキテクチャも同様に機能すると信じている。
最後に、RATs-GCNとP3Sで構成されるRATs-NASは、NASBench-201の3つのサブデータセットに対して、WeakNAS、Arch-Graph、その他を大きく差している。
関連論文リスト
- NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search [34.06028035262884]
我々は、新しい進化型NAS戦略、Predictor-assisted E-NAS(PRE-NAS)を提案する。
Pre-NASは新しい進化的探索戦略を活用し、世代ごとに高忠実度重みの継承を統合する。
NAS-Bench-201とDARTSの探索実験により、Pre-NASは最先端のNAS法より優れていることが示された。
論文 参考訳(メタデータ) (2022-04-27T06:40:39Z) - When NAS Meets Trees: An Efficient Algorithm for Neural Architecture
Search [117.89827740405694]
ニューラルアーキテクチャサーチ(NAS)の主な課題は、巨大なサーチ空間において賢明に探索する方法を設計することである。
少数のアーキテクチャを探索することで探索効率を向上するNAS(TNAS with Tree)手法を提案する。
TNASは、NAS-Bench-201の4時間でテスト精度94.37%のCIFAR-10のグローバルな最適アーキテクチャを発見した。
論文 参考訳(メタデータ) (2022-04-11T07:34:21Z) - HyperSegNAS: Bridging One-Shot Neural Architecture Search with 3D
Medical Image Segmentation using HyperNet [51.60655410423093]
医用画像セグメンテーションのためのワンショットニューラルアーキテクチャサーチ(NAS)を実現するためにHyperSegNASを導入する。
従来のSOTA(State-of-the-art)セグメンテーションネットワークと比較して,HyperSegNASの方がパフォーマンスが高く,直感的なアーキテクチャが得られることを示す。
本手法は,MSD (Messical Decathlon) 課題の公開データセットを用いて評価し,SOTAの性能評価を行う。
論文 参考訳(メタデータ) (2021-12-20T16:21:09Z) - NAS-TC: Neural Architecture Search on Temporal Convolutions for Complex
Action Recognition [45.168746142597946]
ニューラルアーキテクチャサーチ-時間畳み込み(NAS-TC)と呼ばれる新しい処理フレームワークを提案する。
第1段階では、古典的なCNNネットワークがバックボーンネットワークとして使われ、計算集約的な特徴抽出タスクが完了する。
第2段階では、セルへの簡単な縫合探索を用いて、比較的軽量な長時間時間依存情報抽出を完了させる。
論文 参考訳(メタデータ) (2021-03-17T02:02:11Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - Revisiting Neural Architecture Search [0.0]
我々は、人間の努力を伴わずに完全なニューラルネットワークを探索する新しいアプローチを提案し、AutoML-nirvanaに一歩近づいた。
提案手法は,ニューラルネットワークにマッピングされた完全なグラフから始まり,探索空間の探索と利用のバランスをとることにより,接続と操作を探索する。
論文 参考訳(メタデータ) (2020-10-12T13:57:30Z) - S3NAS: Fast NPU-aware Neural Architecture Search Methodology [2.607400740040335]
S3NASと呼ばれる高速なNPU対応NAS手法を提案し,既存のNASよりも高精度なCNNアーキテクチャを提案する。
TPUv3を使って3時間でネットワークを見つけることができ、11.66ミリ秒のレイテンシでImageNetの82.72%のトップ1の精度を示している。
論文 参考訳(メタデータ) (2020-09-04T04:45:50Z) - BATS: Binary ArchitecTure Search [56.87581500474093]
ニューラルアーキテクチャ検索をバイナリドメインに直接適用すると、非常に貧弱な結果が得られることを示す。
具体的には、新しいバイナリ指向検索空間を導入し、設計する。
また、CIFAR10、CIFAR100、ImageNetデータセット上に、バイナリニューラルネットワークのための新しい最先端技術も設定しました。
論文 参考訳(メタデータ) (2020-03-03T18:57:02Z) - Fast Neural Network Adaptation via Parameter Remapping and Architecture
Search [35.61441231491448]
ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最新技術(SOTA)セマンティックセグメンテーションとオブジェクト検出アプローチは、バックボーンとしてイメージ分類用に設計されたニューラルネットワークアーキテクチャを再利用する。
しかし、大きな課題の1つは、画像Netによる検索空間表現の事前トレーニングが膨大な計算コストを発生させることである。
本稿では、シードネットワークのアーキテクチャとパラメータの両方を適応できる高速ニューラルネットワーク適応(FNA)手法を提案する。
論文 参考訳(メタデータ) (2020-01-08T13:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。