論文の概要: Using Neural Networks and Diversifying Differential Evolution for
Dynamic Optimisation
- arxiv url: http://arxiv.org/abs/2008.04002v1
- Date: Mon, 10 Aug 2020 10:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:27:57.690674
- Title: Using Neural Networks and Diversifying Differential Evolution for
Dynamic Optimisation
- Title(参考訳): 動的最適化のためのニューラルネットワークと微分進化の多様化
- Authors: Maryam Hasani Shoreh, Renato Hermoza Aragon\'es, Frank Neumann
- Abstract要約: ニューラルネットワークが競争力のあるものなのか、その結果を改善するためにニューラルネットワークを統合する可能性について検討する。
その結果、ニューラルネットワークと多様性メカニズムを統合する際の改善の意義が、変化のタイプと頻度に依存することが明らかとなった。
- 参考スコア(独自算出の注目度): 11.228244128564512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic optimisation occurs in a variety of real-world problems. To tackle
these problems, evolutionary algorithms have been extensively used due to their
effectiveness and minimum design effort. However, for dynamic problems, extra
mechanisms are required on top of standard evolutionary algorithms. Among them,
diversity mechanisms have proven to be competitive in handling dynamism, and
recently, the use of neural networks have become popular for this purpose.
Considering the complexity of using neural networks in the process compared to
simple diversity mechanisms, we investigate whether they are competitive and
the possibility of integrating them to improve the results. However, for a fair
comparison, we need to consider the same time budget for each algorithm. Thus,
instead of the usual number of fitness evaluations as the measure for the
available time between changes, we use wall clock timing. The results show the
significance of the improvement when integrating the neural network and
diversity mechanisms depends on the type and the frequency of changes.
Moreover, we observe that for differential evolution, having a proper diversity
in population when using neural networks plays a key role in the neural
network's ability to improve the results.
- Abstract(参考訳): 動的最適化は様々な現実世界の問題で発生する。
これらの問題に対処するために、進化的アルゴリズムは、その有効性と最小限の設計努力のために広く利用されている。
しかし、動的な問題では、標準的な進化アルゴリズムの上に余分なメカニズムが必要である。
その中でも多様性のメカニズムはダイナミズムの扱いにおいて競争力があることが証明されており、近年ではニューラルネットワークの利用が普及している。
単純な多様性メカニズムと比較して、プロセスでニューラルネットワークを使用することの複雑さを考えると、それらが競合しているかどうか、その結果を改善するためにニューラルネットワークを統合する可能性について検討する。
しかし、公平な比較のためには、各アルゴリズムの同じ時間予算を考慮する必要がある。
したがって、変更間の利用可能な時間を測定する尺度として、通常のフィットネス評価ではなく、壁時計のタイミングを用いる。
その結果,ニューラルネットワークと多様性機構の統合における改善の意義は,変化の種類と頻度に依存することがわかった。
さらに, 差動進化において, ニューラルネットワークを用いた場合の個体数の多様性が, ニューラルネットワークの性能向上に重要な役割を担っていることを観察した。
関連論文リスト
- Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
本稿では、適応LIFニューロンとそのネットワークの動的、計算的、および学習特性について分析する。
適応LIFニューロンのネットワークの優越性は、複雑な時系列の予測と生成にまで及んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Multiobjective Evolutionary Pruning of Deep Neural Networks with
Transfer Learning for improving their Performance and Robustness [15.29595828816055]
本研究は,多目的進化解析アルゴリズムMO-EvoPruneDeepTLを提案する。
我々は、トランスファーラーニングを使用して、遺伝的アルゴリズムによって進化したスパース層に置き換えることで、ディープニューラルネットワークの最後の層を適応します。
実験の結果,提案手法は全ての目的に対して有望な結果が得られ,直接的な関係が示された。
論文 参考訳(メタデータ) (2023-02-20T19:33:38Z) - Sparse Mutation Decompositions: Fine Tuning Deep Neural Networks with
Subspace Evolution [0.0]
進化戦略と呼ばれる、神経進化的手法の一般的なサブクラスは、ネットワークを変異させるために高密度ノイズ摂動に依存している。
低次元部分空間に高密度な突然変異を分解することでこの問題を緩和するアプローチを導入する。
我々は、非常に難しいImageNetデータセット上で、神経進化的微調整とアンサンブルを初めて大規模に探索する。
論文 参考訳(メタデータ) (2023-02-12T01:27:26Z) - Neuronal diversity can improve machine learning for physics and beyond [0.0]
ニューロンの活性化関数を学習するニューラルネットワークを構築する。
サブネットワークは、特に非線形応答のメタ学習が効率的であるニューロンをインスタンス化する。
論文 参考訳(メタデータ) (2022-04-09T01:48:41Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Exploring weight initialization, diversity of solutions, and degradation
in recurrent neural networks trained for temporal and decision-making tasks [0.0]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、脳機能と構造をモデル化するために頻繁に使用される。
本研究では,時間変化刺激による時間・流れ制御タスクを行うために,小型完全接続型RNNを訓練した。
論文 参考訳(メタデータ) (2019-06-03T21:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。