論文の概要: Asymmetrically connected reservoir networks learn better
- arxiv url: http://arxiv.org/abs/2410.00584v1
- Date: Tue, 1 Oct 2024 11:15:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 04:47:16.901803
- Title: Asymmetrically connected reservoir networks learn better
- Title(参考訳): 非対称接続型貯水池ネットワークの学習
- Authors: Shailendra K. Rathor, Martin Ziegler, Jörg Schumacher,
- Abstract要約: 貯水池ネットワークの高次元リカレント層内の接続性は、その性能に不可欠である。
貯水池ネットワークの高次元再帰層内の接続性は,その性能に不可欠であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that connectivity within the high-dimensional recurrent layer of a reservoir network is crucial for its performance. To this end, we systematically investigate the impact of network connectivity on its performance, i.e., we examine the symmetry and structure of the reservoir in relation to its computational power. Reservoirs with random and asymmetric connections are found to perform better for an exemplary Mackey-Glass time series than all structured reservoirs, including biologically inspired connectivities, such as small-world topologies. This result is quantified by the information processing capacity of the different network topologies which becomes highest for asymmetric and randomly connected networks.
- Abstract(参考訳): 貯水池ネットワークの高次元再帰層内の接続性は,その性能に不可欠であることを示す。
そこで我々は,ネットワーク接続が性能に与える影響,すなわち貯水池の対称性と構造を,その計算能力に関連して系統的に検討した。
ランダムで非対称な接続を持つ貯水池は、小さな世界トポロジーのような生物学的にインスピレーションを受けた結合性を含む全ての構造された貯水池よりも、模範的なマッキーグラス時間系列においてよりよく機能する。
この結果は、非対称およびランダムに連結されたネットワークにおいて最高となる異なるネットワークトポロジの情報処理能力によって定量化される。
関連論文リスト
- Dense Hebbian neural networks: a replica symmetric picture of supervised
learning [4.133728123207142]
我々は教師が指導する高密度で連想的なニューラルネットについて検討する。
スピングラスの統計力学およびモンテカルロシミュレーションによる数値計算能力の解析を行った。
論文 参考訳(メタデータ) (2022-11-25T13:37:47Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Clustering-Based Interpretation of Deep ReLU Network [17.234442722611803]
我々はReLU関数の非線形挙動が自然なクラスタリングを引き起こすことを認識している。
本稿では,完全連結フィードフォワードReLUニューラルネットワークの解釈可能性を高める手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T09:24:11Z) - Parallel Machine Learning for Forecasting the Dynamics of Complex
Networks [0.0]
本稿では,大規模複雑ネットワークの力学を予測するための機械学習手法を提案する。
私たちは、関心のネットワークのトポロジを模倣する並列アーキテクチャを使用します。
論文 参考訳(メタデータ) (2021-08-27T06:06:41Z) - Towards Understanding Theoretical Advantages of Complex-Reaction
Networks [77.34726150561087]
パラメータ数を用いて,関数のクラスを複素反応ネットワークで近似できることを示す。
経験的リスク最小化については,複素反応ネットワークの臨界点集合が実数値ネットワークの固有部分集合であることを示す。
論文 参考訳(メタデータ) (2021-08-15T10:13:49Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Recursive Multi-model Complementary Deep Fusion forRobust Salient Object
Detection via Parallel Sub Networks [62.26677215668959]
完全畳み込みネットワークは、正体検出(SOD)分野において優れた性能を示している。
本稿では,全く異なるネットワークアーキテクチャを持つ並列サブネットワークからなる,より広いネットワークアーキテクチャを提案する。
いくつかの有名なベンチマークの実験では、提案されたより広範なフレームワークの優れた性能、優れた一般化、強力な学習能力が明らかに示されている。
論文 参考訳(メタデータ) (2020-08-07T10:39:11Z) - On Power Laws in Deep Ensembles [12.739425443572202]
1つの大きなネットワークは、同じ数のパラメータを持つ複数の中規模ネットワークのアンサンブルよりも性能が悪くなる可能性があることを示す。
検出された電力法則的依存関係を用いて、所定の構造を持つネットワークの集合から得られる利益を予測することができる。
論文 参考訳(メタデータ) (2020-07-16T17:35:32Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。