論文の概要: Learning Random Numbers to Realize Appendable Memory System for Artificial Intelligence to Acquire New Knowledge after Deployment
- arxiv url: http://arxiv.org/abs/2407.20197v1
- Date: Mon, 29 Jul 2024 17:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 12:55:07.172475
- Title: Learning Random Numbers to Realize Appendable Memory System for Artificial Intelligence to Acquire New Knowledge after Deployment
- Title(参考訳): 乱数学習による人工知能の適応型メモリシステムの実現と展開後の新たな知識獲得
- Authors: Kazunori D Yamada,
- Abstract要約: パラメータ更新なしでデータを記憶し、リコールできるニューラルネットワークシステムを開発した。
Appendable Memoryシステムは、人工知能(AI)がデプロイ後も新たな知識を取得することを可能にする。
- 参考スコア(独自算出の注目度): 0.9065034043031668
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we developed a learning method for constructing a neural network system capable of memorizing data and recalling it without parameter updates. The system we built using this method is called the Appendable Memory system. The Appendable Memory system enables an artificial intelligence (AI) to acquire new knowledge even after deployment. It consists of two AIs: the Memorizer and the Recaller. This system is a key-value store built using neural networks. The Memorizer receives data and stores it in the Appendable Memory vector, which is dynamically updated when the AI acquires new knowledge. Meanwhile, the Recaller retrieves information from the Appendable Memory vector. What we want to teach AI in this study are the operations of memorizing and recalling information. However, traditional machine learning methods make AI learn features inherent in the learning dataset. We demonstrate that the systems we intend to create cannot be realized by current machine learning methods, that is, by merely repeating the input and output learning sequences with AI. Instead, we propose a method to teach AI to learn operations, by completely removing the features contained in the learning dataset. Specifically, we probabilized all the data involved in learning. This measure prevented AI from learning the features of the data. The learning method proposed in the study differs from traditional machine learning methods and provides fundamental approaches for building an AI system that can store information in a finite memory and recall it at a later date.
- Abstract(参考訳): 本研究では,データを記憶し,パラメータを更新せずにリコールできるニューラルネットワークシステムを構築するための学習手法を開発した。
この方法で構築したシステムは Appendable Memory System と呼ばれる。
Appendable Memoryシステムは、人工知能(AI)がデプロイ後も新たな知識を取得することを可能にする。
AIはMemorizerとRecallerの2つで構成されている。
このシステムはニューラルネットワークを用いて構築されたキーバリューストアである。
Memorizerはデータを受信してAppendable Memoryベクトルに格納する。
一方、RecallerはAppendable Memoryベクタから情報を取得する。
この研究で私たちが教えたいのは、情報の記憶とリコールの操作です。
しかし、従来の機械学習手法は、学習データセットに固有の特徴をAIに学習させる。
我々は、AIで入力と出力の学習シーケンスを単に繰り返すだけで、現在の機械学習手法では実現できないことを実証する。
代わりに、学習データセットに含まれる特徴を完全に取り除き、AIに操作の学習を教える方法を提案する。
具体的には、学習に関わるすべてのデータを確率化しました。
この測定は、AIがデータの特徴を学ぶのを妨げた。
この研究で提案される学習方法は、従来の機械学習手法と異なり、有限メモリに情報を保存し、後で思い出すことができるAIシステムを構築するための基本的なアプローチを提供する。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - Breaching the Bottleneck: Evolutionary Transition from Reward-Driven Learning to Reward-Agnostic Domain-Adapted Learning in Neuromodulated Neural Nets [0.3428444467046466]
AI学習アルゴリズムは、適切な振る舞いを取得するために、外部から用意された振る舞い品質の測定に頼っている。
これにより、多様な非逆刺激情報からの学習を妨げる情報のボトルネックが生じる。
まず、報奨信号から学習する能力を進化させ、非効率(ボトルネック化)だが広い適応性を提供することを提案する。
論文 参考訳(メタデータ) (2024-04-19T05:14:47Z) - Continual Learning with Deep Learning Methods in an Application-Oriented
Context [0.0]
人工知能(AI)の重要な研究領域は、データから知識を自動的に導出することである。
ディープニューラルネットワーク(Deep Neural Networks, DNN)と呼ばれる、"ディープラーニング"モデルに分類される機械学習アルゴリズムの一種。
DNNは、新しい知識が既存のベースに追加されるのを防ぐ問題の影響を受けます。
論文 参考訳(メタデータ) (2022-07-12T10:13:33Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Memory and attention in deep learning [19.70919701635945]
マシンのメモリ構成は避けられない。
ディープラーニングにおけるメモリモデリングの最近の進歩は、外部メモリ構築を中心に展開されている。
この論文の目的は、深層学習における記憶と注意に対する理解を深めることである。
論文 参考訳(メタデータ) (2021-07-03T09:21:13Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - Neurocoder: Learning General-Purpose Computation Using Stored Neural
Programs [64.56890245622822]
ニューロコーダ(Neurocoder)は、汎用計算機の全く新しいクラスである。
共有可能なモジュール型プログラムのセットから関連するプログラムを構成することで、データ応答性のある方法で“コード”を行う。
モジュールプログラムを学習し、パターンシフトを厳しく処理し、新しいプログラムが学習されると、古いプログラムを記憶する新しい能力を示す。
論文 参考訳(メタデータ) (2020-09-24T01:39:16Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Integration of Leaky-Integrate-and-Fire-Neurons in Deep Learning
Architectures [0.0]
生物学的にインスパイアされたニューロンモデルが情報符号化の斬新で効率的な方法を提供することを示す。
LIF単位に対する簡単な更新ルールを微分方程式から導出した。
本手法をIRIS花のイメージデータセットに適用し,画像分類タスクにおけるLIFニューロンのトレーニングに使用することができることを示す。
論文 参考訳(メタデータ) (2020-04-28T13:57:42Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。