論文の概要: Adapting A Vector-Symbolic Memory for Lisp ACT-R
- arxiv url: http://arxiv.org/abs/2508.15630v1
- Date: Thu, 21 Aug 2025 14:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.374168
- Title: Adapting A Vector-Symbolic Memory for Lisp ACT-R
- Title(参考訳): Lisp ACT-R に対するベクトルシンボリックメモリの適用
- Authors: Meera Ray, Christopher L. Dancy,
- Abstract要約: Holographic Declarative Memory (HDM) は、ACT-RのDeclaative Memory (DM) システムに代わるベクトルシンボルである。
我々は、最も包括的で広く使われているACT-R(Lisp ACT-R)の実装にHDMを適用した。
- 参考スコア(独自算出の注目度): 0.1657441317977376
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Holographic Declarative Memory (HDM) is a vector-symbolic alternative to ACT-R's Declarative Memory (DM) system that can bring advantages such as scalability and architecturally defined similarity between DM chunks. We adapted HDM to work with the most comprehensive and widely-used implementation of ACT-R (Lisp ACT-R) so extant ACT-R models designed with DM can be run with HDM without major changes. With this adaptation of HDM, we have developed vector-based versions of common ACT-R functions, set up a text processing pipeline to add the contents of large documents to ACT-R memory, and most significantly created a useful and novel mechanism to retrieve an entire chunk of memory based on a request using only vector representations of tokens. Preliminary results indicate that we can maintain vector-symbolic advantages of HDM (e.g., chunk recall without storing the actual chunk and other advantages with scaling) while also extending it so that previous ACT-R models may work with the system with little (or potentially no) modifications within the actual procedural and declarative memory portions of a model. As a part of iterative improvement of this newly translated holographic declarative memory module, we will continue to explore better time-context representations for vectors to improve the module's ability to reconstruct chunks during recall. To more fully test this translated HDM module, we also plan to develop decision-making models that use instance-based learning (IBL) theory, which is a useful application of HDM given the advantages of the system.
- Abstract(参考訳): Holographic Declarative Memory (HDM) はACT-RのDeclaative Memory (DM) システムに代わるベクトルシンボルであり、拡張性やDMチャンク間のアーキテクチャ的に定義された類似性といった利点をもたらすことができる。
我々は,HDMを最も包括的で広く使用されているACT-R(Lisp ACT-R)の実装に適応させた。
このHDMの適応により、共通のACT-R関数のベクトルベースのバージョンを開発し、大規模なドキュメントの内容をACT-Rメモリに追加するためのテキスト処理パイプラインをセットアップし、トークンのベクトル表現のみを使用して要求に基づいてメモリのチャンク全体を検索する有用な新しいメカニズムを最も大きく作り出した。
予備的な結果は、HDMのベクトル-記号的優位性(例えば、実際のチャンクを格納せずにチャンクリコール)を維持できると同時に、従来のACT-Rモデルが実際の手続き的および宣言的メモリ部分でほとんど(あるいは潜在的にない)変更をしないシステムで機能するように拡張できることを示している。
新たに翻訳されたホログラフィック宣言型メモリモジュールの反復的改善の一環として、リコール時にチャンクを再構築する能力を改善するため、ベクトルの時間コンテキスト表現の改善を引き続き検討する。
この変換HDMモジュールをより完全にテストするため,本システムの利点を考慮し,インスタンスベース学習(IBL)理論を用いた意思決定モデルの開発も計画している。
関連論文リスト
- LatentLLM: Attention-Aware Joint Tensor Compression [50.33925662486034]
大規模言語モデル(LLM)と大規模マルチモーダルモデル(LMM)は膨大な計算量とメモリ資源を必要とする。
本稿では,LLM/LMMを低次元潜在構造に変換するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-23T22:39:54Z) - A-MEM: Agentic Memory for LLM Agents [42.50876509391843]
大規模言語モデル(LLM)エージェントは、歴史的経験を活用するためにメモリシステムを必要とする。
現在のメモリシステムは基本的なストレージと検索を可能にするが、洗練されたメモリ構造は欠如している。
本稿では, LLMエージェントに対して, エージェント方式で動的に記憶を整理できる新しいエージェントメモリシステムを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:36:14Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - CAMELoT: Towards Large Language Models with Training-Free Consolidated
Associative Memory [38.429707659685974]
大規模言語モデル(LLM)は、メモリとランタイムのコストが高いため、長い入力シーケンスを扱うのに苦労する。
本稿では,事前学習した(凍結した)注意に基づくLCMに再学習せずに結合可能な連想記憶モジュールを提案する。
CAMELoTと呼ばれるこのアーキテクチャは、128トークンの小さなコンテキストウィンドウでも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-21T01:00:17Z) - Recurrent Action Transformer with Memory [39.58317527488534]
本稿では,情報保持を規制するリカレントメモリ機構を組み込んだ新しいモデルアーキテクチャを提案する。
メモリ集約環境(ViZDoom-Two-Colors, T-Maze, Memory Maze, Minigrid-Memory)、古典的アタリゲーム、MuJoCo制御環境について実験を行った。
その結果、メモリの使用は、古典的な環境における結果の維持や改善をしながら、メモリ集約環境におけるパフォーマンスを著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-06-15T19:29:08Z) - Can SAM Boost Video Super-Resolution? [78.29033914169025]
単純な有効モジュールであるSAM-guidEd refinEment Module (SEEM)を提案する。
この軽量プラグインモジュールは、セマンティック・アウェア機能の生成にアテンションメカニズムを活用するように設計されている。
我々はSEEMをEDVRとBasicVSRの2つの代表的手法に適用し、最小限の実装労力で継続的に性能を向上する。
論文 参考訳(メタデータ) (2023-05-11T02:02:53Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。