論文の概要: Survey on Memory-Augmented Neural Networks: Cognitive Insights to AI
Applications
- arxiv url: http://arxiv.org/abs/2312.06141v1
- Date: Mon, 11 Dec 2023 06:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 16:54:58.933412
- Title: Survey on Memory-Augmented Neural Networks: Cognitive Insights to AI
Applications
- Title(参考訳): メモリ拡張ニューラルネットワークに関する調査:AIアプリケーションに対する認知的洞察
- Authors: Savya Khosla, Zhen Zhu, Yifie He
- Abstract要約: メモリ拡張ニューラルネットワーク(MANN)は、ヒューマンライクなメモリプロセスをAIに混ぜる。
本研究は, ホップフィールドネットワーク, ニューラルチューリングマシン, 相関行列記憶, メムフォーマ, ニューラルアテンション記憶などの高度なアーキテクチャについて検討した。
自然言語処理、コンピュータビジョン、マルチモーダルラーニング、検索モデルにまたがるMANNの現実的利用に潜んでいる。
- 参考スコア(独自算出の注目度): 4.072140477174307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores Memory-Augmented Neural Networks (MANNs), delving into
how they blend human-like memory processes into AI. It covers different memory
types, like sensory, short-term, and long-term memory, linking psychological
theories with AI applications. The study investigates advanced architectures
such as Hopfield Networks, Neural Turing Machines, Correlation Matrix Memories,
Memformer, and Neural Attention Memory, explaining how they work and where they
excel. It dives into real-world uses of MANNs across Natural Language
Processing, Computer Vision, Multimodal Learning, and Retrieval Models, showing
how memory boosters enhance accuracy, efficiency, and reliability in AI tasks.
Overall, this survey provides a comprehensive view of MANNs, offering insights
for future research in memory-based AI systems.
- Abstract(参考訳): 本稿では,人間の記憶過程をaiに融合する方法を考察し,記憶提示型ニューラルネットワーク(manns)について検討する。
感覚、短期記憶、長期記憶など、さまざまな記憶タイプをカバーし、心理学理論とAI応用を結びつける。
この研究は、Hopfield Networks、Neural Turing Machines、Relation Matrix Memories、Memformer、Neural Attention Memoryといった先進的なアーキテクチャを調査し、それらがどのように機能し、どこでエキサイティングであるかを説明する。
自然言語処理、コンピュータビジョン、マルチモーダル学習、検索モデルにまたがるMANNの現実的な利用に潜り込み、メモリブースターがAIタスクの正確性、効率、信頼性を高める方法を示している。
全体として、この調査はMANNの総合的なビューを提供し、メモリベースのAIシステムにおける将来の研究に対する洞察を提供する。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Hyperbolic Brain Representations [44.99833362998488]
人間の脳の構造と機能を見て、脳の階層的性質と双曲幾何学の整合性を強調します。
経験的証拠は、双曲型ニューラルネットワークが自然言語処理、コンピュータビジョン、複雑なネットワーク分析を含むタスクにおいてユークリッドモデルを上回っていることを示している。
初期の採用にもかかわらず、双曲幾何学は機械学習モデルを改善することを約束している。
論文 参考訳(メタデータ) (2024-09-04T19:58:25Z) - Post-hoc and manifold explanations analysis of facial expression data based on deep learning [4.586134147113211]
本稿では、ニューラルネットワークが顔の表情データを処理し、保存し、それらと人間の心理的属性を関連づける方法について検討する。
研究者たちはディープラーニングモデルVGG16を利用して、ニューラルネットワークが顔データの主要な特徴を学習し、再現できることを実証した。
実験結果は、人間の感情や認知過程を理解するための深層学習モデルの可能性を明らかにした。
論文 参考訳(メタデータ) (2024-04-29T01:19:17Z) - Memory-Augmented Theory of Mind Network [59.9781556714202]
社会的推論は、心の理論(ToM)の能力を必要とする。
ToMに対する最近の機械学習アプローチは、観察者が過去を読み、他のエージェントの振る舞いを提示するように訓練できることを実証している。
我々は,新たなニューラルメモリ機構を組み込んで符号化し,階層的な注意を払って他者に関する情報を選択的に検索することで,課題に対処する。
この結果、ToMMYは心的プロセスについての仮定をほとんど行わずに理性を学ぶマインドモデルである。
論文 参考訳(メタデータ) (2023-01-17T14:48:58Z) - A bio-inspired implementation of a sparse-learning spike-based
hippocampus memory model [0.0]
本研究では,海馬に基づくバイオインスパイアされた新しい記憶モデルを提案する。
記憶を覚えたり、キューから思い出したり、同じキューで他の人を学ぼうとする時の記憶を忘れたりできる。
この研究は、完全に機能するバイオインスパイアされたスパイクベースの海馬記憶モデルの最初のハードウェア実装を示す。
論文 参考訳(メタデータ) (2022-06-10T07:48:29Z) - Neuromorphic Artificial Intelligence Systems [58.1806704582023]
フォン・ノイマンアーキテクチャと古典的ニューラルネットワークに基づく現代のAIシステムは、脳と比較して多くの基本的な制限がある。
この記事では、そのような制限と、それらが緩和される方法について論じる。
これは、これらの制限が克服されている現在利用可能なニューロモーフィックAIプロジェクトの概要を示す。
論文 参考訳(メタデータ) (2022-05-25T20:16:05Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Memory and attention in deep learning [19.70919701635945]
マシンのメモリ構成は避けられない。
ディープラーニングにおけるメモリモデリングの最近の進歩は、外部メモリ構築を中心に展開されている。
この論文の目的は、深層学習における記憶と注意に対する理解を深めることである。
論文 参考訳(メタデータ) (2021-07-03T09:21:13Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。