論文の概要: A Brain-inspired Memory Transformation based Differentiable Neural
Computer for Reasoning-based Question Answering
- arxiv url: http://arxiv.org/abs/2301.02809v1
- Date: Sat, 7 Jan 2023 08:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 15:38:18.916407
- Title: A Brain-inspired Memory Transformation based Differentiable Neural
Computer for Reasoning-based Question Answering
- Title(参考訳): 推論に基づく質問応答のための脳誘発記憶変換に基づく微分可能なニューラルネットワーク
- Authors: Yao Liang, Hongjian Fang, Yi Zeng and Feifei Zhao
- Abstract要約: 人間の基本的な認知機能としての推論と質問応答は、現在の人工知能にとって大きな課題である。
本論文は,脳の学習と記憶機構に動機付けられ,記憶変換に基づく微分可能ニューラルネットワーク(MT-DNC)モデルを提案する。
- 参考スコア(独自算出の注目度): 3.036382664997076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning and question answering as a basic cognitive function for humans, is
nevertheless a great challenge for current artificial intelligence. Although
the Differentiable Neural Computer (DNC) model could solve such problems to a
certain extent, the development is still limited by its high algorithm
complexity, slow convergence speed, and poor test robustness. Inspired by the
learning and memory mechanism of the brain, this paper proposed a Memory
Transformation based Differentiable Neural Computer (MT-DNC) model. MT-DNC
incorporates working memory and long-term memory into DNC, and realizes the
autonomous transformation of acquired experience between working memory and
long-term memory, thereby helping to effectively extract acquired knowledge to
improve reasoning ability. Experimental results on bAbI question answering task
demonstrated that our proposed method achieves superior performance and faster
convergence speed compared to other existing DNN and DNC models. Ablation
studies also indicated that the memory transformation from working memory to
long-term memory plays essential role in improving the robustness and stability
of reasoning. This work explores how brain-inspired memory transformation can
be integrated and applied to complex intelligent dialogue and reasoning
systems.
- Abstract(参考訳): 推論と質問応答は、人間の基本的な認知機能でありながら、現在の人工知能にとって大きな課題である。
微分可能なニューラルネットワーク(DNC)モデルはそのような問題をある程度解決できるが、アルゴリズムの複雑さ、収束速度の遅さ、テストの堅牢性に制限されている。
本稿では,脳の学習・記憶機構にヒントを得て,記憶変換に基づく微分ニューラルネットワーク(MT-DNC)モデルを提案する。
mt-dncは作業記憶と長期記憶をdncに取り入れ、作業記憶と長期記憶の間の獲得経験の自律的変換を実現し、獲得した知識を効果的に抽出し推論能力を向上させる。
bAbI質問応答タスクの実験結果から,提案手法は既存のDNNモデルやDNCモデルよりも優れた性能と収束速度を実現することが示された。
アブレーション研究は、作業記憶から長期記憶への記憶変換が推論のロバスト性と安定性を改善する上で重要な役割を果たすことを示した。
この研究は、脳にインスパイアされたメモリ変換をどのように統合し、複雑なインテリジェントな対話と推論システムに適用するかを考察する。
関連論文リスト
- Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - BrainODE: Dynamic Brain Signal Analysis via Graph-Aided Neural Ordinary Differential Equations [67.79256149583108]
本稿では,脳波を連続的にモデル化するBrainODEというモデルを提案する。
遅延初期値とニューラルODE関数を不規則な時系列から学習することにより、BrainODEは任意の時点の脳信号を効果的に再構築する。
論文 参考訳(メタデータ) (2024-04-30T10:53:30Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - A differentiable brain simulator bridging brain simulation and
brain-inspired computing [3.5874544981360987]
脳シミュレーションは、脳の構造と機能を模倣する動的モデルを構築する。
脳にインスパイアされたコンピューティングは、脳の構造と機能から学習することで知的なシステムを発達させる。
BrainPy は JAX と XLA を用いて開発された微分可能な脳シミュレータである。
論文 参考訳(メタデータ) (2023-11-09T02:47:38Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Explainable fMRI-based Brain Decoding via Spatial Temporal-pyramid Graph
Convolutional Network [0.8399688944263843]
既存のfMRIベースの脳デコードのための機械学習手法は、分類性能が低いか、説明性が悪いかのいずれかに悩まされている。
本稿では,機能的脳活動の時空間グラフ表現を捉えるために,生物学的にインスパイアされたアーキテクチャである時空間ピラミドグラフ畳み込みネットワーク(STpGCN)を提案する。
我々は,Human Connectome Project (HCP) S1200から23の認知タスク下でのfMRIデータに関する広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-08T12:14:33Z) - A bio-inspired implementation of a sparse-learning spike-based
hippocampus memory model [0.0]
本研究では,海馬に基づくバイオインスパイアされた新しい記憶モデルを提案する。
記憶を覚えたり、キューから思い出したり、同じキューで他の人を学ぼうとする時の記憶を忘れたりできる。
この研究は、完全に機能するバイオインスパイアされたスパイクベースの海馬記憶モデルの最初のハードウェア実装を示す。
論文 参考訳(メタデータ) (2022-06-10T07:48:29Z) - CogNGen: Constructing the Kernel of a Hyperdimensional Predictive
Processing Cognitive Architecture [79.07468367923619]
神経生物学的に妥当な2つの計算モデルを組み合わせた新しい認知アーキテクチャを提案する。
我々は、現代の機械学習技術の力を持つ認知アーキテクチャを開発することを目指している。
論文 参考訳(メタデータ) (2022-03-31T04:44:28Z) - Memory and attention in deep learning [19.70919701635945]
マシンのメモリ構成は避けられない。
ディープラーニングにおけるメモリモデリングの最近の進歩は、外部メモリ構築を中心に展開されている。
この論文の目的は、深層学習における記憶と注意に対する理解を深めることである。
論文 参考訳(メタデータ) (2021-07-03T09:21:13Z) - A Neural Dynamic Model based on Activation Diffusion and a
Micro-Explanation for Cognitive Operations [4.416484585765028]
記憶の神経機構は、人工知能における表現の問題と非常に密接な関係を持っている。
脳内のニューロンのネットワークとその情報処理のシミュレーションを行う計算モデルが提案された。
論文 参考訳(メタデータ) (2020-11-27T01:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。