論文の概要: ALF -- A Fitness-Based Artificial Life Form for Evolving Large-Scale
Neural Networks
- arxiv url: http://arxiv.org/abs/2104.08252v1
- Date: Fri, 16 Apr 2021 17:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 10:46:09.883350
- Title: ALF -- A Fitness-Based Artificial Life Form for Evolving Large-Scale
Neural Networks
- Title(参考訳): alf -- 大規模ニューラルネットワークを進化させるためのフィットネスベースの人工生命体
- Authors: Rune Krauss, Marcel Merten, Mirco Bockholt, Rolf Drechsler
- Abstract要約: 遺伝的アルゴリズムを用いて、ANNトポロジと重みを見つけることのできるトポロジと重み付きニューラルネットワーク(TWEANN)アルゴリズムが開発されている。
大規模な問題に対するよく知られた欠点は、TWEANNアルゴリズムがしばしば非効率なANNを進化させ、長いランタイムを必要とすることである。
本稿では,ALF(Artificial Life Form)と呼ばれる新しいTWEANNアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.8637753210354036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning (ML) is becoming increasingly important in daily life. In
this context, Artificial Neural Networks (ANNs) are a popular approach within
ML methods to realize an artificial intelligence. Usually, the topology of ANNs
is predetermined. However, there are problems where it is difficult to find a
suitable topology. Therefore, Topology and Weight Evolving Artificial Neural
Network (TWEANN) algorithms have been developed that can find ANN topologies
and weights using genetic algorithms. A well-known downside for large-scale
problems is that TWEANN algorithms often evolve inefficient ANNs and require
long runtimes.
To address this issue, we propose a new TWEANN algorithm called Artificial
Life Form (ALF) with the following technical advancements: (1) speciation via
structural and semantic similarity to form better candidate solutions, (2)
dynamic adaptation of the observed candidate solutions for better convergence
properties, and (3) integration of solution quality into genetic reproduction
to increase the probability of optimization success. Experiments on large-scale
ML problems confirm that these approaches allow the fast solving of these
problems and lead to efficient evolved ANNs.
- Abstract(参考訳): 機械学習(ML)は日々の生活においてますます重要になりつつある。
この文脈では、人工知能を実現するためのML手法の中で、ニューラルネットワーク(ANN)が一般的なアプローチである。
通常、ANNのトポロジーは規定されている。
しかし、適切な位相を見つけることが難しい問題もある。
そのため、遺伝的アルゴリズムを用いて、ANNトポロジと重みを見つけることのできるトポロジと重み付きニューラルネットワーク(TWEANN)アルゴリズムが開発されている。
TWEANNアルゴリズムは、しばしば非効率なANNを進化させ、長いランタイムを必要とする。
この問題に対処するため,我々は,(1) 構造的および意味的類似性によるより良い候補解形成への分化,(2) 観察された候補解の動的適応による収束特性の向上,(3) 遺伝的複製へのソリューション品質の統合による最適化成功の確率の向上,といった技術的進歩を伴って,ALF (Artificial Life Form) と呼ばれる新しいTWEANNアルゴリズムを提案する。
大規模なML問題に対する実験は、これらのアプローチがこれらの問題の迅速な解決を可能にし、効率的な進化したANNにつながることを確認している。
関連論文リスト
- Two-Timescale Model Caching and Resource Allocation for Edge-Enabled AI-Generated Content Services [55.0337199834612]
Generative AI(GenAI)は、カスタマイズされたパーソナライズされたAI生成コンテンツ(AIGC)サービスを可能にするトランスフォーメーション技術として登場した。
これらのサービスは数十億のパラメータを持つGenAIモデルの実行を必要とし、リソース制限の無線エッジに重大な障害を生じさせる。
我々は、AIGC品質とレイテンシメトリクスのトレードオフをバランスさせるために、AIGCサービスのジョイントモデルキャッシングとリソースアロケーションの定式化を導入する。
論文 参考訳(メタデータ) (2024-11-03T07:01:13Z) - Dendrites endow artificial neural networks with accurate, robust and parameter-efficient learning [0.0]
そこで本研究では,新しいANNアーキテクチャが,生物デンドライトの構造的接続性と制限されたサンプリング特性を取り入れていることを示す。
デンドライトANNは, 画像分類タスクにおいて, 従来のANNを過度に適合させ, 性能を向上する上で, より堅牢であることがわかった。
論文 参考訳(メタデータ) (2024-04-04T11:22:58Z) - Spiking Network Initialisation and Firing Rate Collapse [3.7057859167913456]
スパイクニューラルネットワーク(SNN)の優れた初期化を構成するものは不明である。
ANNの重量初期化問題は、SNNのスパイク・アンド・リセット非直線性のため、ANNの重量初期化の問題よりも、ANNの重量初期化の問題であることが示される。
我々は,ANNの分散伝播技術と異なる手法を組み合わせたSNN初期化手法を考案し,期待される発火速度と膜電位分布を求める。
論文 参考訳(メタデータ) (2023-05-13T10:11:00Z) - Initial Steps Towards Tackling High-dimensional Surrogate Modeling for
Neuroevolution Using Kriging Partial Least Squares [0.0]
サロゲート支援進化アルゴリズム(SAEA)は、進化計算システムにおける適合関数の近似を目的とし、効率的な計算モデルを使用することを目的としている。
SAEAsコミュニティからほとんど注目を集めていない、創発的でエキサイティングな領域は、神経進化にある。
近似代理モデルの効率的な計算を可能にするKriging partial Least Squares法をどう利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-05T15:17:03Z) - A Survey on Influence Maximization: From an ML-Based Combinatorial
Optimization [2.9882027965916413]
影響最大化(IM)は、モバイルネットワーク、ソーシャルコンピューティング、レコメンデーションシステムで広く用いられる古典的な最適化問題である。
主な課題は、IM問題のNP硬度と、影響力の広がりを推定する#P硬度である。
我々は,関連する背景知識,基本原則,共通手法,応用研究の要約に重点を置いている。
論文 参考訳(メタデータ) (2022-11-06T10:13:42Z) - Efficient Global Optimization of Two-layer ReLU Networks: Quadratic-time
Algorithms and Adversarial Training [12.354076490479516]
我々は,ANNをグローバル収束保証で訓練する2つの効率的なアルゴリズムを開発した。
最初のアルゴリズムは交互法乗算器(ADMM)に基づいている
第二のアルゴリズムは、"sampled convex program"理論に基づいており、実装が簡単である。
論文 参考訳(メタデータ) (2022-01-06T08:24:11Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - AdaLead: A simple and robust adaptive greedy search algorithm for
sequence design [55.41644538483948]
我々は、容易で、拡張性があり、堅牢な進化的欲求アルゴリズム(AdaLead)を開発した。
AdaLeadは、様々な生物学的に動機づけられたシーケンスデザインの課題において、アートアプローチのより複雑な状態を克服する、驚くほど強力なベンチマークである。
論文 参考訳(メタデータ) (2020-10-05T16:40:38Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。