論文の概要: Modularity in NEAT Reinforcement Learning Networks
- arxiv url: http://arxiv.org/abs/2205.06451v1
- Date: Fri, 13 May 2022 05:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 22:51:25.293274
- Title: Modularity in NEAT Reinforcement Learning Networks
- Title(参考訳): NEAT強化学習ネットワークにおけるモジュール性
- Authors: Humphrey Munn, Marcus Gallagher
- Abstract要約: 本稿では,拡張トポロジのNeuroEvolution of Augmenting Topologies (NEAT)ネットワークが時間とともに急速にモジュール性を高めていることを示す。
意外なことに、NEATはネットワークの適合度が収束してもモジュラーネットワークが増加する傾向にある。
探索されたパラメータ空間におけるネットワークモジュラリティの理想的なレベルは他のネットワーク変数に大きく依存していることが示されている。
- 参考スコア(独自算出の注目度): 4.9444321684311925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modularity is essential to many well-performing structured systems, as it is
a useful means of managing complexity [8]. An analysis of modularity in neural
networks produced by machine learning algorithms can offer valuable insight
into the workings of such algorithms and how modularity can be leveraged to
improve performance. However, this property is often overlooked in the
neuroevolutionary literature, so the modular nature of many learning algorithms
is unknown. This property was assessed on the popular algorithm "NeuroEvolution
of Augmenting Topologies" (NEAT) for standard simulation benchmark control
problems due to NEAT's ability to optimise network topology. This paper shows
that NEAT networks seem to rapidly increase in modularity over time with the
rate and convergence dependent on the problem. Interestingly, NEAT tends
towards increasingly modular networks even when network fitness converges. It
was shown that the ideal level of network modularity in the explored parameter
space is highly dependent on other network variables, dispelling theories that
modularity has a straightforward relationship to network performance. This is
further proven in this paper by demonstrating that rewarding modularity
directly did not improve fitness.
- Abstract(参考訳): モジュール化は、多くのよく機能する構造化システムにとって不可欠であり、複雑さを管理する有用な手段です [8]。
機械学習アルゴリズムが生成するニューラルネットワークのモジュラリティの分析は、そのようなアルゴリズムの動作と、モジュラリティをパフォーマンスを改善するためにどのように活用できるかについての貴重な洞察を提供することができる。
しかし、この性質はしばしば神経進化学の文献で見過ごされているため、多くの学習アルゴリズムのモジュラー性は不明である。
この特性は、ネットワークトポロジを最適化するNEATの能力により、標準的なシミュレーションベンチマーク制御問題に対して、一般的なアルゴリズムであるNeuroEvolution of Augmenting Topologies (NEAT)に基づいて評価された。
本稿では,問題に依存する速度と収束率によって,ネットワークのモジュール性が急速に向上していることを示す。
興味深いことに、NEATはネットワークの適合度が収束してもモジュラーネットワークが増加する傾向にある。
検討されたパラメータ空間におけるネットワークモジュラリティの理想的なレベルは、他のネットワーク変数に大きく依存しており、モジュラリティがネットワーク性能と直接的な関係を持つという理論を廃止している。
この結果は,モジュール性が直接的に向上しなかったことを実証することで,さらに証明されている。
関連論文リスト
- A Collaborative Model-driven Network for MRI Reconstruction [9.441882492801174]
本稿では,ディープラーニング手法の性能向上のためのモデル駆動型ネットワークを提案する。
協調型モデル駆動ネットワークは、モデル駆動型ワーク、アテンションモジュール、修正モジュールで構成される。
実験の結果、計算の複雑さが増すことなく大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-02-04T07:29:00Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Learn to Communicate with Neural Calibration: Scalability and
Generalization [10.775558382613077]
本稿では,将来の無線システム設計のためのスケーラブルで一般化可能なニューラルネットワークキャリブレーションフレームワークを提案する。
提案するニューラルキャリブレーションフレームワークは,大規模マルチインプットマルチアウトプット(MIMO)システムにおける資源管理の課題を解決するために応用される。
論文 参考訳(メタデータ) (2021-10-01T09:00:25Z) - Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses [1.9809266426888898]
専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
論文 参考訳(メタデータ) (2021-08-04T01:24:17Z) - Neural Function Modules with Sparse Arguments: A Dynamic Approach to
Integrating Information across Layers [84.57980167400513]
Neural Function Modules (NFM)は、ディープラーニングに同じ構造機能を導入することを目的としている。
トップダウンとボトムアップのフィードバックを組み合わせたフィードフォワードネットワークのコンテキストにおける作業のほとんどは、分類の問題に限られている。
私たちの仕事の重要な貢献は、フレキシブルなアルゴリズムで注意、疎結合、トップダウン、ボトムアップのフィードバックを組み合わせることです。
論文 参考訳(メタデータ) (2020-10-15T20:43:17Z) - Are Neural Nets Modular? Inspecting Functional Modularity Through
Differentiable Weight Masks [10.0444013205203]
NNがモジュール化されているかどうか、どのように改善するかを理解することはできる。
しかし、現在の検査方法は、モジュールを機能にリンクすることができない。
論文 参考訳(メタデータ) (2020-10-05T15:04:11Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - A Modular Neural Network Based Deep Learning Approach for MIMO Signal
Detection [12.769554897969307]
人工ニューラルネットワーク(ANN)支援多重出力多重出力(MIMO)信号検出は、ANN支援損失ベクトル量子化(VQ)としてモデル化できる
我々は、MNNetと呼ばれる新しいモジュラーニューラルネットワークベースのアプローチを提案し、ネットワーク全体が事前に定義されたANNモジュールの集合によって形成される。
シミュレーションの結果、MNNetアプローチは、様々なケースにおいて、ほぼ最適性能でディープラーニング能力を大幅に改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T12:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。