論文の概要: Developing Convolutional Neural Networks using a Novel Lamarckian Co-Evolutionary Algorithm
- arxiv url: http://arxiv.org/abs/2410.22487v1
- Date: Tue, 29 Oct 2024 19:26:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:28:25.388001
- Title: Developing Convolutional Neural Networks using a Novel Lamarckian Co-Evolutionary Algorithm
- Title(参考訳): 新たなラマルク共進化アルゴリズムを用いた畳み込みニューラルネットワークの開発
- Authors: Zaniar Sharifi, Khabat Soltanian, Ali Amiri,
- Abstract要約: 本稿ではラマルク遺伝的アルゴリズムのインスタンス化であるLCoDeepNEATを紹介する。
LCoDeepNEATはCNNアーキテクチャとその最終層重みを共進化させる。
提案手法は,候補解の分類精度を2%から5.6%に向上させる。
- 参考スコア(独自算出の注目度): 1.2425910171551517
- License:
- Abstract: Neural Architecture Search (NAS) methods autonomously discover high-accuracy neural network architectures, outperforming manually crafted ones. However, The NAS methods require high computational costs due to the high dimension search space and the need to train multiple candidate solutions. This paper introduces LCoDeepNEAT, an instantiation of Lamarckian genetic algorithms, which extends the foundational principles of the CoDeepNEAT framework. LCoDeepNEAT co-evolves CNN architectures and their respective final layer weights. The evaluation process of LCoDeepNEAT entails a single epoch of SGD, followed by the transference of the acquired final layer weights to the genetic representation of the network. In addition, it expedites the process of evolving by imposing restrictions on the architecture search space, specifically targeting architectures comprising just two fully connected layers for classification. Our method yields a notable improvement in the classification accuracy of candidate solutions throughout the evolutionary process, ranging from 2% to 5.6%. This outcome underscores the efficacy and effectiveness of integrating gradient information and evolving the last layer of candidate solutions within LCoDeepNEAT. LCoDeepNEAT is assessed across six standard image classification datasets and benchmarked against eight leading NAS methods. Results demonstrate LCoDeepNEAT's ability to swiftly discover competitive CNN architectures with fewer parameters, conserving computational resources, and achieving superior classification accuracy compared to other approaches.
- Abstract(参考訳): ニューラルネットワーク探索(NAS)手法は,高精度なニューラルネットワークアーキテクチャを自律的に検出し,手作業によるアーキテクチャよりも優れている。
しかし、NAS法は、高次元探索空間と複数の候補解を訓練する必要があるため、高い計算コストを必要とする。
本稿では、LCoDeepNEATフレームワークの基本原理を拡張したラマルク遺伝的アルゴリズムのインスタンス化であるLCoDeepNEATを紹介する。
LCoDeepNEATはCNNアーキテクチャとその最終層重みを共進化させる。
LCoDeepNEATの評価過程はSGDの1つのエポックを包含し、次いで取得した最終層重みがネットワークの遺伝的表現に伝達される。
さらに、アーキテクチャ検索空間に制限を課し、特に、分類のための2つの完全に接続された層からなるアーキテクチャをターゲットにすることで、進化の過程を高速化する。
提案手法は, 進化過程を通じて, 候補解の分類精度を2%から5.6%に向上させる。
この結果は、勾配情報の統合とLCoDeepNEATにおける候補解の最終層の発展の有効性と有効性を示している。
LCoDeepNEATは6つの標準画像分類データセットで評価され、8つの主要なNASメソッドに対してベンチマークされる。
その結果、LCoDeepNEATは、より少ないパラメータで競合するCNNアーキテクチャを迅速に発見し、計算資源を保存し、他の手法と比較して優れた分類精度を達成することができることを示した。
関連論文リスト
- Informed deep hierarchical classification: a non-standard analysis inspired approach [0.0]
出力層の前に配置された特定のプロジェクション演算子を備えた多出力ディープニューラルネットワークで構成されている。
このようなアーキテクチャの設計は、LH-DNN(Lexicographic Hybrid Deep Neural Network)と呼ばれ、異なる研究分野と非常に離れた研究分野のツールを組み合わせることで実現されている。
アプローチの有効性を評価するために、階層的な分類タスクに適した畳み込みニューラルネットワークであるB-CNNと比較する。
論文 参考訳(メタデータ) (2024-09-25T14:12:50Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - A SAR speckle filter based on Residual Convolutional Neural Networks [68.8204255655161]
本研究では,Convolutional Neural Networks(CNN)に基づく深層学習(DL)アルゴリズムを用いて,Sentinel-1データからスペックルノイズをフィルタリングする新しい手法を提案する。
得られた結果は、技術の現状と比較すると、ピーク信号対雑音比(PSNR)と構造類似度指数(SSIM)の点で明確な改善を示しています。
論文 参考訳(メタデータ) (2021-04-19T14:43:07Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - FactorizeNet: Progressive Depth Factorization for Efficient Network
Architecture Exploration Under Quantization Constraints [93.4221402881609]
量子化制約下での効率的なCNNアーキテクチャ探索のためのプログレッシブ・ディープ・ファクタライズ・ストラテジーを導入する。
アルゴリズムによって深度分解の粒度を漸進的に増大させることで,層状分布の微細で低レベルな解析が可能となる。
このようなプログレッシブな深度分解戦略は、最適深度分解マクロ構造設計の効率的な同定を可能にする。
論文 参考訳(メタデータ) (2020-11-30T07:12:26Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z) - Evolving Neural Networks through a Reverse Encoding Tree [9.235550900581764]
本稿では,拡張性のあるニューラルネットワークを効率的に進化させる手法として,Reverse HANG Tree (RET) と呼ばれるトポロジカルエッジコーディングを取り入れた手法を提案する。
RETを用いた2種類のアプローチ - Binary search encoding (Bi-NEAT) のNEATとGolden-Section search encoding (GS-NEAT) のNEAT - は、連続学習環境のベンチマークにおける問題を解決するために設計された。
論文 参考訳(メタデータ) (2020-02-03T02:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。