論文の概要: Hopfield Networks Meet Big Data: A Brain-Inspired Deep Learning Framework for Semantic Data Linking
- arxiv url: http://arxiv.org/abs/2503.03084v1
- Date: Wed, 05 Mar 2025 00:53:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:59.313895
- Title: Hopfield Networks Meet Big Data: A Brain-Inspired Deep Learning Framework for Semantic Data Linking
- Title(参考訳): Hopfield Networksがビッグデータと出会う: セマンティックデータリンクのためのブレインインスパイアされたディープラーニングフレームワーク
- Authors: Ashwin Viswanathan Kannan, Johnson P Thomas, Abhimanyu Mukerji,
- Abstract要約: 本稿では,機械学習をホップフィールドネットワークと統合し,データセット間のセマンティック関連属性を識別・リンクする,脳にインスパイアされた分散認知フレームワークを提案する。
我々のアーキテクチャは Hadoop Distributed File System (HDFS) でMapReduce上に実装されており、深いホップフィールドネットワークを連想記憶機構として活用している。
実験により、ホップフィールドメモリの連想インプリントは時間とともに強化され、関連するデータセットが文脈的に意味のあるままであることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The exponential rise in data generation has led to vast, heterogeneous datasets crucial for predictive analytics and decision-making. Ensuring data quality and semantic integrity remains a challenge. This paper presents a brain-inspired distributed cognitive framework that integrates deep learning with Hopfield networks to identify and link semantically related attributes across datasets. Modeled on the dual-hemisphere functionality of the human brain, the right hemisphere assimilates new information while the left retrieves learned representations for association. Our architecture, implemented on MapReduce with Hadoop Distributed File System (HDFS), leverages deep Hopfield networks as an associative memory mechanism to enhance recall of frequently co-occurring attributes and dynamically adjust relationships based on evolving data patterns. Experiments show that associative imprints in Hopfield memory are reinforced over time, ensuring linked datasets remain contextually meaningful and improving data disambiguation and integration accuracy. Our results indicate that combining deep Hopfield networks with distributed cognitive processing offers a scalable, biologically inspired approach to managing complex data relationships in large-scale environments.
- Abstract(参考訳): データ生成の指数的な増加は、予測分析と意思決定に不可欠な膨大な、異質なデータセットを生み出した。
データ品質とセマンティックな整合性の確保は依然として課題である。
本稿では,機械学習をホップフィールドネットワークと統合し,データセット間のセマンティック関連属性を識別・リンクする,脳にインスパイアされた分散認知フレームワークを提案する。
右半球は、人間の脳の二重半球機能に基づいて、新しい情報を同化し、左半球は学習した関連表現を検索する。
我々のアーキテクチャは Hadoop Distributed File System (HDFS) を用いてMapReduce上に実装され、深いホップフィールドネットワークを連想記憶機構として活用し、頻繁に共起する属性のリコールを強化し、進化するデータパターンに基づいて関係を動的に調整する。
実験により、ホップフィールドメモリの連想インプリントは時間とともに強化され、リンクされたデータセットが文脈的に意味を保ち、データの曖昧さと統合精度を向上させることが示されている。
この結果から,深層ホップフィールドネットワークと分散認知処理を組み合わせることで,大規模環境における複雑なデータ関係を管理するためのスケーラブルで生物学的なアプローチが期待できることがわかった。
関連論文リスト
- A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Autoencoder based approach for the mitigation of spurious correlations [2.7624021966289605]
純粋な相関は、真の基盤となる関係を反映しないデータの誤関連を指す。
これらの相関により、ディープニューラルネットワーク(DNN)は、さまざまなデータセットや実世界のシナリオで堅牢でないパターンを学ぶことができる。
本稿では,GWHD(Global Wheat Head Detection)2021データセットに存在するスプリアス相関の性質を自動エンコーダで解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-27T05:28:44Z) - BiSHop: Bi-Directional Cellular Learning for Tabular Data with Generalized Sparse Modern Hopfield Model [6.888608574535993]
BiSHopは、深層表型学習の2つの大きな課題に対処する。
BiSHopはデュアルコンポーネントのアプローチを採用し、列ワイドと行ワイドの両方のデータを逐次処理する。
We show BiSHop comes over current SOTA method with significantly less HPO run。
論文 参考訳(メタデータ) (2024-04-04T23:13:32Z) - Brain Networks and Intelligence: A Graph Neural Network Based Approach to Resting State fMRI Data [2.193937336601403]
本稿では,rsfMRIによる接続行列上のグラフニューラルネットワークを用いて,インテリジェンス(流動性,結晶化,全知能)を予測するBrainRGINという新しいモデリングアーキテクチャを提案する。
本手法では,脳のサブネットワーク組織の性質を反映するグラフ畳み込み層に,クラスタリングに基づく埋め込みとグラフ同型ネットワークを組み込む。
論文 参考訳(メタデータ) (2023-11-06T20:58:07Z) - A Framework for Inference Inspired by Human Memory Mechanisms [9.408704431898279]
本稿では,知覚,記憶,推論の構成要素からなるPMIフレームワークを提案する。
メモリモジュールは、ワーキングメモリと長期メモリから構成され、後者は、広範囲で複雑なリレーショナル知識と経験を維持するために、高次構造を備えている。
我々は、bAbI-20kやSolt-of-CLEVRデータセットのような質問応答タスクにおいて、一般的なTransformerとCNNモデルを改善するためにPMIを適用します。
論文 参考訳(メタデータ) (2023-10-01T08:12:55Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Brain-like combination of feedforward and recurrent network components
achieves prototype extraction and robust pattern recognition [0.0]
連想記憶は、大々的に繰り返される新皮質ネットワークによって実行される計算の有力候補である。
我々は,非教師付きヘビアン・ベイズ学習規則を用いて分散表現を学習するフィードフォワードネットワークに,繰り返しアトラクタネットワークを結合する。
本研究では, フィードフォワード駆動型内部(隠れた)表現のトレーニングにおいて, 繰り返しアトラクタコンポーネントが連想メモリを実装していることを示す。
論文 参考訳(メタデータ) (2022-06-30T06:03:11Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。