論文の概要: Beyond Disorder: Unveiling Cooperativeness in Multidirectional Associative Memories
- arxiv url: http://arxiv.org/abs/2503.04454v1
- Date: Thu, 06 Mar 2025 14:09:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:58:55.624187
- Title: Beyond Disorder: Unveiling Cooperativeness in Multidirectional Associative Memories
- Title(参考訳): 障害を超えて:多方向連想記憶における協調性を明らかにする
- Authors: Andrea Alessandrelli, Adriano Barra, Andrea Ladiana, Andrea Lepre, Federico Ricci-Tersenghi,
- Abstract要約: 我々は、ヘテロ連想メモリのためのニューラルネットワークのアーキテクチャを拡張し、教師付き学習プロトコルと教師なし学習プロトコルを探索する。
エントロピック・ヘテロジニアスデータセットを様々な層に提供することにより、新しい創発現象を予測し、定量化する。
- 参考スコア(独自算出の注目度): 0.8796261172196742
- License:
- Abstract: By leveraging tools from the statistical mechanics of complex systems, in these short notes we extend the architecture of a neural network for hetero-associative memory (called three-directional associative memories, TAM) to explore supervised and unsupervised learning protocols. In particular, by providing entropic-heterogeneous datasets to its various layers, we predict and quantify a new emergent phenomenon -- that we term {\em layer's cooperativeness} -- where the interplay of dataset entropies across network's layers enhances their retrieval capabilities Beyond those they would have without reciprocal influence. Naively we would expect layers trained with less informative datasets to develop smaller retrieval regions compared to those pertaining to layers that experienced more information: this does not happen and all the retrieval regions settle to the same amplitude, allowing for optimal retrieval performance globally. This cooperative dynamics marks a significant advancement in understanding emergent computational capabilities within disordered systems.
- Abstract(参考訳): これらのショートノートでは、複雑なシステムの統計力学からツールを活用することで、ヘテロ連想記憶(TAMと呼ばれる)のためのニューラルネットワークのアーキテクチャを拡張し、教師付きおよび教師なしの学習プロトコルを探索する。
特に、エントロピック・ヘテロジニアスデータセットをさまざまな層に提供することによって、新たな創発的現象を予測し、定量化します。
一般的には、少ない情報データセットでトレーニングされたレイヤが、より多くの情報を経験したレイヤと比較して、より小さな検索領域を開発することを期待する。
この協調力学は、乱れたシステムにおける創発的計算能力の理解において重要な進歩を示す。
関連論文リスト
- Beyond Multilayer Perceptrons: Investigating Complex Topologies in
Neural Networks [0.12289361708127873]
ニューラルネットワーク(ANN)の近似能力に及ぼすネットワークトポロジの影響について検討する。
本稿では,Barab'asi-Albert,ErdHos-R'enyi,Watts-Strogatz,Multilayer perceptrons(MLPs)など,様々なトポロジに基づく複雑なANNの構築手法を提案する。
構築されたネットワークは、多様体学習ジェネレータから生成された合成データセット、タスクの難易度とノイズのレベル、およびUCIの実際のデータセットに基づいて評価される。
論文 参考訳(メタデータ) (2023-03-31T09:48:16Z) - Kernel function impact on convolutional neural networks [10.98068123467568]
畳み込みニューラルネットワークの異なる層におけるカーネル関数の利用について検討する。
より歪みに敏感なプール層を導入することで、カーネル関数を効果的に活用する方法を示す。
完全接続層を置き換えるKDL(Kernelized Dense Layers)を提案する。
論文 参考訳(メタデータ) (2023-02-20T19:57:01Z) - Improving Out-of-Distribution Generalization of Neural Rerankers with
Contextualized Late Interaction [52.63663547523033]
マルチベクトルの最も単純な形式である後期相互作用は、[]ベクトルのみを使用して類似度スコアを計算する神経リランカにも役立ちます。
異なるモデルサイズと多様な性質の第一段階のレトリバーに一貫性があることが示される。
論文 参考訳(メタデータ) (2023-02-13T18:42:17Z) - ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism [0.0]
本研究は,各層の受容領域内の空間成分とチャネル成分の両面を高度に最適化する,新たなソリューションの実現に焦点をあてる。
我々は, カプセル層を戦略的に通過する前に重要な特徴を抽出するために, より深い畳み込み層を導入し, ME-CapsNetを提案する。
より深い畳み込み層にはSqueeze-Excitationネットワークのブロックが含まれており、重要な特徴情報を失うことなく、サンプリングアプローチを使用して相互依存関係を再構築する。
論文 参考訳(メタデータ) (2022-03-29T13:29:38Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Layer-stacked Attention for Heterogeneous Network Embedding [0.0]
レイヤスタックATTention Embedding (LATTE)は、各レイヤで上位のメタ関係を自動的に分解するアーキテクチャである。
LATTEは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能なアグリゲーションスキームを提供する。
帰納的ノード分類タスクと帰納的ノード分類タスクの両方において、LATTEは既存のアプローチと比較して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-09-17T05:13:41Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。