論文の概要: POPNASv2: An Efficient Multi-Objective Neural Architecture Search
Technique
- arxiv url: http://arxiv.org/abs/2210.02959v1
- Date: Thu, 6 Oct 2022 14:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:43:37.692623
- Title: POPNASv2: An Efficient Multi-Objective Neural Architecture Search
Technique
- Title(参考訳): POPNASv2: 効率的な多目的ニューラルアーキテクチャ探索手法
- Authors: Andrea Falanti, Eugenio Lomurno, Stefano Samele, Danilo Ardagna,
Matteo Matteucci
- Abstract要約: 本稿では,POPNASv2と呼ばれるパレート最適プログレッシブ・ニューラル・アーキテクチャ・サーチの新バージョンを提案する。
私たちのアプローチは、最初のバージョンを強化し、パフォーマンスを改善します。
POPNASv2は平均4倍の検索時間でPNASライクな性能を実現することができる。
- 参考スコア(独自算出の注目度): 7.497722345725035
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Automating the research for the best neural network model is a task that has
gained more and more relevance in the last few years. In this context, Neural
Architecture Search (NAS) represents the most effective technique whose results
rival the state of the art hand-crafted architectures. However, this approach
requires a lot of computational capabilities as well as research time, which
makes prohibitive its usage in many real-world scenarios. With its sequential
model-based optimization strategy, Progressive Neural Architecture Search
(PNAS) represents a possible step forward to face this resources issue. Despite
the quality of the found network architectures, this technique is still limited
in research time. A significant step in this direction has been done by
Pareto-Optimal Progressive Neural Architecture Search (POPNAS), which expands
PNAS with a time predictor to enable a trade-off between search time and
accuracy, considering a multi-objective optimization problem. This paper
proposes a new version of the Pareto-Optimal Progressive Neural Architecture
Search, called POPNASv2. Our approach enhances its first version and improves
its performance. We expanded the search space by adding new operators and
improved the quality of both predictors to build more accurate Pareto fronts.
Moreover, we introduced cell equivalence checks and enriched the search
strategy with an adaptive greedy exploration step. Our efforts allow POPNASv2
to achieve PNAS-like performance with an average 4x factor search time
speed-up.
- Abstract(参考訳): 最良のニューラルネットワークモデルのための研究の自動化は、ここ数年でますます関連性を増してきたタスクです。
この文脈において、ニューラルアーキテクチャサーチ(NAS)は、成果が手作り建築の状況に匹敵する最も効果的なテクニックである。
しかし、このアプローチには多くの計算能力と研究時間が必要であり、多くの現実世界のシナリオでの使用を禁止している。
逐次モデルに基づく最適化戦略によって、プログレッシブ・ニューラル・アーキテクチャ・サーチ(pnas)は、このリソース問題に直面するためのステップとして考えられる。
見つかったネットワークアーキテクチャの品質にもかかわらず、この技術は研究期間に限られている。
この方向の重要なステップは、POPNAS(Pareto-Optimal Progressive Neural Architecture Search)によって行われ、PNASを時間予測器で拡張し、多目的最適化問題を考慮して、検索時間と精度のトレードオフを可能にする。
本稿では,pareto-optimal progressive neural architecture searchの新バージョンであるpopnasv2を提案する。
私たちのアプローチは、最初のバージョンを強化し、パフォーマンスを改善します。
新たな演算子を追加して検索スペースを拡張し、より正確なParetoフロントを構築するために両方の予測器の品質を改善しました。
さらに,細胞同値チェックを導入し,適応的な欲求探索ステップで探索戦略を強化した。
POPNASv2は平均4倍の検索時間でPNASライクな性能を実現することができる。
関連論文リスト
- A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - POPNASv3: a Pareto-Optimal Neural Architecture Search Solution for Image
and Time Series Classification [8.190723030003804]
本稿では、異なるハードウェア環境と複数の分類タスクを対象とした逐次モデルベースNASアルゴリズムの第3版について述べる。
提案手法は,異なるタスクに適応するフレキシブルな構造とデータ処理パイプラインを維持しながら,大規模な検索空間内で競合するアーキテクチャを見つけることができる。
画像と時系列の分類データセットで実施された実験は、POPNASv3が多種多様な演算子を探索し、異なるシナリオで提供されるデータの種類に適した最適なアーキテクチャに収束できることを示す。
論文 参考訳(メタデータ) (2022-12-13T17:14:14Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - FNAS: Uncertainty-Aware Fast Neural Architecture Search [54.49650267859032]
強化学習(Reinforcement Learning, RL)に基づくニューラルアーキテクチャサーチ(NAS)は一般的に、収束性の向上を保証するが、巨大な計算資源の要求に悩まされる。
NASにおけるロールアウトプロセスとRLプロセスの収束を加速する汎用パイプラインを提案する。
Mobile Neural Architecture Search (MNAS)サーチスペースの実験では、提案するFast Neural Architecture Search (FNAS)が標準のRLベースのNASプロセスを10倍高速化することを示した。
論文 参考訳(メタデータ) (2021-05-25T06:32:52Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - Efficient Model Performance Estimation via Feature Histories [27.008927077173553]
ニューラルネットワーク設計のタスクにおける重要なステップは、モデルの性能を評価することである。
この研究では、トレーニングの初期段階におけるネットワークの機能の進化履歴を使用して、プロキシ分類器を構築します。
本手法は,複数の探索アルゴリズムと組み合わせ,より幅広いタスクに対するより良い解を見つけることができることを示す。
論文 参考訳(メタデータ) (2021-03-07T20:41:57Z) - Effective, Efficient and Robust Neural Architecture Search [4.273005643715522]
敵攻撃の最近の進歩は、ニューラルアーキテクチャサーチ(NAS)によって探索されたディープニューラルネットワークの脆弱性を示している
本稿では,ニューラルネットワークアーキテクチャの性能,堅牢性,資源制約を考慮し,ニューラルネットワークアーキテクチャを探索する,効率的で効率的かつロバストなニューラルネットワーク探索手法を提案する。
ベンチマークデータセットを用いた実験により,提案手法は,モデルサイズと同等の分類精度で,逆向きに頑健なアーキテクチャを見出すことができることがわかった。
論文 参考訳(メタデータ) (2020-11-19T13:46:23Z) - PV-NAS: Practical Neural Architecture Search for Video Recognition [83.77236063613579]
ビデオタスクのためのディープニューラルネットワークは高度にカスタマイズされており、そのようなネットワークの設計にはドメインの専門家と高価な試行錯誤テストが必要である。
ネットワークアーキテクチャ検索の最近の進歩により、画像認識性能は大幅に向上した。
本研究では,実用的ビデオニューラルアーキテクチャ探索(PV-NAS)を提案する。
論文 参考訳(メタデータ) (2020-11-02T08:50:23Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Progressive Automatic Design of Search Space for One-Shot Neural
Architecture Search [15.017964136568061]
単発モデルの精度が高いモデルでは,スタンドアローンの訓練では必ずしも優れた性能が得られない。
PAD-NASという検索空間のプログレッシブ自動設計を提案する。
このようにして、PAD-NASは各レイヤの操作を自動的に設計し、検索空間の品質とモデルの多様性のトレードオフを達成できる。
論文 参考訳(メタデータ) (2020-05-15T14:21:07Z) - Neural Architecture Generator Optimization [9.082931889304723]
我々はまず,NASを最適ネットワーク生成器の探索問題として検討する。
本稿では,非常に多様なネットワークタイプを表現可能な,階層的でグラフベースの検索空間を提案する。
論文 参考訳(メタデータ) (2020-04-03T06:38:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。