論文の概要: Evolving Neural Networks through a Reverse Encoding Tree
- arxiv url: http://arxiv.org/abs/2002.00539v2
- Date: Tue, 31 Mar 2020 21:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:03:08.850856
- Title: Evolving Neural Networks through a Reverse Encoding Tree
- Title(参考訳): 逆符号化木によるニューラルネットワークの進化
- Authors: Haoling Zhang, Chao-Han Huck Yang, Hector Zenil, Narsis A. Kiani, Yue
Shen, Jesper N. Tegner
- Abstract要約: 本稿では,拡張性のあるニューラルネットワークを効率的に進化させる手法として,Reverse HANG Tree (RET) と呼ばれるトポロジカルエッジコーディングを取り入れた手法を提案する。
RETを用いた2種類のアプローチ - Binary search encoding (Bi-NEAT) のNEATとGolden-Section search encoding (GS-NEAT) のNEAT - は、連続学習環境のベンチマークにおける問題を解決するために設計された。
- 参考スコア(独自算出の注目度): 9.235550900581764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: NeuroEvolution is one of the most competitive evolutionary learning
frameworks for designing novel neural networks for use in specific tasks, such
as logic circuit design and digital gaming. However, the application of
benchmark methods such as the NeuroEvolution of Augmenting Topologies (NEAT)
remains a challenge, in terms of their computational cost and search time
inefficiency. This paper advances a method which incorporates a type of
topological edge coding, named Reverse Encoding Tree (RET), for evolving
scalable neural networks efficiently. Using RET, two types of approaches --
NEAT with Binary search encoding (Bi-NEAT) and NEAT with Golden-Section search
encoding (GS-NEAT) -- have been designed to solve problems in benchmark
continuous learning environments such as logic gates, Cartpole, and Lunar
Lander, and tested against classical NEAT and FS-NEAT as baselines.
Additionally, we conduct a robustness test to evaluate the resilience of the
proposed NEAT algorithms. The results show that the two proposed strategies
deliver improved performance, characterized by (1) a higher accumulated reward
within a finite number of time steps; (2) using fewer episodes to solve
problems in targeted environments, and (3) maintaining adaptive robustness
under noisy perturbations, which outperform the baselines in all tested cases.
Our analysis also demonstrates that RET expends potential future research
directions in dynamic environments. Code is available from
https://github.com/HaolingZHANG/ReverseEncodingTree.
- Abstract(参考訳): NeuroEvolutionは、論理回路設計やデジタルゲームなど、特定のタスクで使用する新しいニューラルネットワークを設計するための最も競争力のある進化的学習フレームワークの1つである。
しかし、その計算コストと探索時間の非効率の観点から、補足トポロジー(neat)の神経進化のようなベンチマーク手法の適用は依然として課題である。
本稿では,拡張性のあるニューラルネットワークを効率的に進化させるために,Reverse Encoding Tree (RET) と呼ばれるトポロジ的エッジコーディングを組み込んだ手法を提案する。
RETを用いて、論理ゲート、カートポール、ルナーランダーなどのベンチマーク連続学習環境における問題の解決を目的として、古典的NEATとFS-NEATをベースラインとして、バイナリサーチエンコーディング(Bi-NEAT)によるNEATとゴールデンシークションサーチエンコーディング(GS-NEAT)によるNEATの2つのアプローチが設計された。
さらに,提案したNEATアルゴリズムのレジリエンスを評価するために,ロバストネス試験を実施している。
その結果, 提案手法は, 1) 限られた時間ステップで高い累積報酬を得られること, (2) ターゲット環境の問題を解決するためにエピソードが少ないこと, (3) ノイズの多い摂動下で適応性を維持すること, そして, 全ての試験ケースにおいてベースラインを上回っていること, が特徴である。
また,retは動的環境における将来研究の方向性を明らかにした。
コードはhttps://github.com/HaolingZHANG/ReverseEncodingTreeから入手できる。
関連論文リスト
- Developing Convolutional Neural Networks using a Novel Lamarckian Co-Evolutionary Algorithm [1.2425910171551517]
本稿ではラマルク遺伝的アルゴリズムのインスタンス化であるLCoDeepNEATを紹介する。
LCoDeepNEATはCNNアーキテクチャとその最終層重みを共進化させる。
提案手法は,候補解の分類精度を2%から5.6%に向上させる。
論文 参考訳(メタデータ) (2024-10-29T19:26:23Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - A Continuous Optimisation Benchmark Suite from Neural Network Regression [0.0]
ニューラルネットワークのトレーニングは、近年のディープラーニングの成功で注目を集めている最適化タスクである。
勾配降下変種は、大規模機械学習タスクにおける信頼性の高いパフォーマンスにおいて、最も一般的な選択である。
CORNNは、ニューラルネットワークのトレーニング問題に対して、連続的なブラックボックスアルゴリズムのパフォーマンスをベンチマークするスイートである。
論文 参考訳(メタデータ) (2021-09-12T20:24:11Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。