論文の概要: HiveNAS: Neural Architecture Search using Artificial Bee Colony
Optimization
- arxiv url: http://arxiv.org/abs/2211.10250v2
- Date: Thu, 15 Jun 2023 17:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 03:02:57.726053
- Title: HiveNAS: Neural Architecture Search using Artificial Bee Colony
Optimization
- Title(参考訳): HiveNAS:人工蜂コロニー最適化を用いたニューラルネットワーク探索
- Authors: Mohamed Shahawy and Elhadj Benkhelifa
- Abstract要約: 本研究では,ニューラルネットワーク探索のための人工蜂コロニー最適化の実現可能性を評価する。
提案するフレームワークであるHiveNASは、最先端のSwarm IntelligenceベースのNASフレームワークを短時間で上回ります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The traditional Neural Network-development process requires substantial
expert knowledge and relies heavily on intuition and trial-and-error. Neural
Architecture Search (NAS) frameworks were introduced to robustly search for
network topologies, as well as facilitate the automated development of Neural
Networks. While some optimization approaches -- such as Genetic Algorithms --
have been extensively explored in the NAS context, other Metaheuristic
Optimization algorithms have not yet been investigated. In this study, we
evaluate the viability of Artificial Bee Colony optimization for Neural
Architecture Search. Our proposed framework, HiveNAS, outperforms existing
state-of-the-art Swarm Intelligence-based NAS frameworks in a fraction of the
time.
- Abstract(参考訳): 従来のニューラルネットワーク開発プロセスは、かなりの専門知識を必要とし、直観と試行錯誤に大きく依存している。
neural architecture search (nas)フレームワークは、ロバストにネットワークトポロジを検索し、ニューラルネットワークの自動開発を促進するために導入された。
遺伝的アルゴリズムのような最適化手法はNASの文脈で広く研究されているが、他のメタヒューリスティック最適化アルゴリズムはまだ研究されていない。
本研究では,ニューラルネットワーク探索のための人工蜂コロニー最適化の有効性を評価する。
提案するフレームワークであるHiveNASは、最先端のSwarm IntelligenceベースのNASフレームワークを短時間で上回ります。
関連論文リスト
- Colony-Enhanced Recurrent Neural Architecture Search: Collaborative
Ant-Based Optimization [0.0]
本稿では,協調型Antベースニューラルトポロジーサーチ(CANTS-N)を紹介する。
この革新的なアプローチでは、Antにインスパイアされたエージェントがニューラルネットワーク構造を慎重に構築し、動的環境内で動的に適応する。
CANTS-Nは、ニューラルアーキテクチャサーチ(NAS)とニューラル進化(NE)のランドスケープを再構築する可能性を持っている
論文 参考訳(メタデータ) (2024-01-30T22:27:31Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Accelerating Neural Architecture Exploration Across Modalities Using
Genetic Algorithms [5.620334754517149]
多目的アーキテクチャ探索を加速するために, 遺伝的アルゴリズムと軽量に訓練された客観予測器を反復サイクルで組み合わせる方法を示す。
NASの研究はコンピュータビジョンのタスクを中心に行われており、最近になって自然言語処理の急速な発展など他のモダリティも深く研究されている。
論文 参考訳(メタデータ) (2022-02-25T20:01:36Z) - NeuralArTS: Structuring Neural Architecture Search with Type Theory [0.0]
本稿では,ニューラルネットワーク型システム(NeuralArTS)と呼ばれる,構造化型システムにおけるネットワーク操作の無限集合を分類する新しいフレームワークを提案する。
本稿では,NeuralArTSを畳み込み層に適用し,今後の方向性を示す。
論文 参考訳(メタデータ) (2021-10-17T03:28:27Z) - Going Beyond Neural Architecture Search with Sampling-based Neural
Ensemble Search [31.059040393415003]
本稿では,Nurural Ensemble Search via Smpling (NESS) フレームワークに基づく2つの新しいサンプリングアルゴリズムを提案する。
我々のNESSアルゴリズムは、分類タスクと対角防御タスクの両方において改善された性能を達成できることが示されている。
論文 参考訳(メタデータ) (2021-09-06T15:18:37Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - An Introduction to Neural Architecture Search for Convolutional Networks [0.0]
ニューラルアーキテクチャサーチ(英: Neural Architecture Search、NAS)は、最適化アルゴリズムを利用して最適なニューラルネットワークアーキテクチャを設計する研究分野である。
我々は、畳み込みネットワークのためのNASの基本概念と、探索空間、アルゴリズム、評価技術の大きな進歩について紹介する。
論文 参考訳(メタデータ) (2020-05-22T09:33:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。