論文の概要: Supervised and Unsupervised protocols for hetero-associative neural networks
- arxiv url: http://arxiv.org/abs/2505.18796v1
- Date: Sat, 24 May 2025 17:15:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.665026
- Title: Supervised and Unsupervised protocols for hetero-associative neural networks
- Title(参考訳): ヘテロ連想型ニューラルネットワークのための教師付きおよび教師なしプロトコル
- Authors: Andrea Alessandrelli, Adriano Barra, Andrea Ladiana, Andrea Lepre, Federico Ricci-Tersenghi,
- Abstract要約: 本稿では,3方向連想メモリ(TAM)モデルのための学習フレームワークを提案する。
これらのニューラルネットワークは、一般化されたヘビーンのシナプス結合を介して相互作用する3つの相互結合された2つのニューロンから構成され、パターンの構造的三重項の学習、保存、検索を可能にする。
- 参考スコア(独自算出の注目度): 0.8796261172196742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a learning framework for Three-Directional Associative Memory (TAM) models, extending the classical Hebbian paradigm to both supervised and unsupervised protocols within an hetero-associative setting. These neural networks consist of three interconnected layers of binary neurons interacting via generalized Hebbian synaptic couplings that allow learning, storage and retrieval of structured triplets of patterns. By relying upon glassy statistical mechanical techniques (mainly replica theory and Guerra interpolation), we analyze the emergent computational properties of these networks, at work with random (Rademacher) datasets and at the replica-symmetric level of description: we obtain a set of self-consistency equations for the order parameters that quantify the critical dataset sizes (i.e. their thresholds for learning) and describe the retrieval performance of these networks, highlighting the differences between supervised and unsupervised protocols. Numerical simulations validate our theoretical findings and demonstrate the robustness of the captured picture about TAMs also at work with structured datasets. In particular, this study provides insights into the cooperative interplay of layers, beyond that of the neurons within the layers, with potential implications for optimal design of artificial neural network architectures.
- Abstract(参考訳): 本稿では,3方向連想メモリ(TAM)モデルのための学習フレームワークを提案する。
これらのニューラルネットワークは、一般化されたヘビーンのシナプス結合を介して相互作用する3つの相互結合された2つのニューロンから構成され、パターンの構造的三重項の学習、保存、検索を可能にする。
ガラス質の統計力学技術(主にレプリカ理論とゲラ補間)を頼りに、これらのネットワークの創発的計算特性、ランダムな(ラデマチャー)データセット、およびレプリカ対称な記述のレベルで分析し、重要なデータセットサイズ(学習のしきい値)を定量化する順序パラメータの自己整合方程式のセットを取得し、これらのネットワークの検索性能を記述し、教師付きプロトコルと教師なしプロトコルの違いを強調した。
数値シミュレーションは、我々の理論的知見を検証し、構造化されたデータセットを扱う際にも、TAMに関する捕獲された画像の頑健さを実証する。
特に、この研究は、階層内のニューロン以外のレイヤの協調的相互作用に関する洞察を提供し、人工ニューラルネットワークアーキテクチャの最適設計の可能性を秘めている。
関連論文リスト
- Relational Composition in Neural Networks: A Survey and Call to Action [54.47858085003077]
多くのニューラルネットは、データを「機能ベクトル」の線形結合として表現しているように見える。
我々は、この成功は関係性の構成を理解せずに不完全であると主張する。
論文 参考訳(メタデータ) (2024-07-19T20:50:57Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Memorization With Neural Nets: Going Beyond the Worst Case [5.03863830033243]
実際には、ディープニューラルネットワークはトレーニングデータを簡単に補間できることが多い。
本稿では、3層ニューラルネットワークを時間内に補間する単純なランダム化アルゴリズムを提案する。
サンプル数に依存しない保証を得るため、最悪の記憶能力限界を超えて移動します。
論文 参考訳(メタデータ) (2023-09-30T10:06:05Z) - Dense Hebbian neural networks: a replica symmetric picture of supervised
learning [4.133728123207142]
我々は教師が指導する高密度で連想的なニューラルネットについて検討する。
スピングラスの統計力学およびモンテカルロシミュレーションによる数値計算能力の解析を行った。
論文 参考訳(メタデータ) (2022-11-25T13:37:47Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。