論文の概要: LDM$^2$: A Large Decision Model Imitating Human Cognition with Dynamic
Memory Enhancement
- arxiv url: http://arxiv.org/abs/2312.08402v1
- Date: Wed, 13 Dec 2023 06:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 03:10:44.355008
- Title: LDM$^2$: A Large Decision Model Imitating Human Cognition with Dynamic
Memory Enhancement
- Title(参考訳): LDM$^2$: 動的メモリ拡張による人間の認知を省略する大規模決定モデル
- Authors: Xingjin Wang, Linjing Li, Daniel Zeng
- Abstract要約: 本稿では,動的メモリ機構を利用して動的プロンプトを構成するLarge Decision Model with Memory (LDM$2$)を提案する。
後者の段階では、LDM$2$はツリー探索を利用して、より適切な決定プロセスを発見し、価値ある状態アクションを追加することでメモリを豊かにする。
LDM$2$は、スコアと成功率の両方でベースラインを上回り、その効果を示す。
- 参考スコア(独自算出の注目度): 1.3351610617039973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of large language models (LLMs), it is highly
demanded that LLMs can be adopted to make decisions to enable the artificial
general intelligence. Most approaches leverage manually crafted examples to
prompt the LLMs to imitate the decision process of human. However, designing
optimal prompts is difficult and the patterned prompts can hardly be
generalized to more complex environments. In this paper, we propose a novel
model named Large Decision Model with Memory (LDM$^2$), which leverages a
dynamic memory mechanism to construct dynamic prompts, guiding the LLMs in
making proper decisions according to the faced state. LDM$^2$ consists of two
stages: memory formation and memory refinement. In the former stage, human
behaviors are decomposed into state-action tuples utilizing the powerful
summarizing ability of LLMs. Then, these tuples are stored in the memory, whose
indices are generated by the LLMs, to facilitate the retrieval of the most
relevant subset of memorized tuples based on the current state. In the latter
stage, our LDM$^2$ employs tree exploration to discover more suitable decision
processes and enrich the memory by adding valuable state-action tuples. The
dynamic circle of exploration and memory enhancement provides LDM$^2$ a better
understanding of the global environment. Extensive experiments conducted in two
interactive environments have shown that our LDM$^2$ outperforms the baselines
in terms of both score and success rate, which demonstrates its effectiveness.
- Abstract(参考訳): 大規模言語モデル (LLM) の急速な発展に伴い,LLM は人工知能を実現するための決定を下すことができることが求められている。
ほとんどのアプローチでは、手作業による例を利用して、LLMに人間の意思決定プロセスを模倣するよう促している。
しかしながら、最適プロンプトの設計は困難であり、パターン化されたプロンプトはより複雑な環境に一般化できない。
本稿では,動的プロンプトを構築するために動的メモリ機構を活用するLarge Decision Model with Memory (LDM$^2$)を提案する。
LDM$^2$は、メモリ形成とメモリ改善の2段階からなる。
前段では、人間の行動はllmの強力な要約能力を利用して状態行動タプルに分解される。
そして、これらのタプルはllmによってインデックスが生成されるメモリに格納され、現在の状態に基づいて記憶されたタプルの最も関連するサブセットの検索を容易にする。
後者の段階では、LDM$^2$はツリー探索を利用して、より適切な決定プロセスを発見し、貴重なステートアクションタプルを追加することでメモリを豊かにする。
探索とメモリ拡張のダイナミックサークルは、グローバル環境をよりよく理解するためのldm$^2$を提供する。
2つのインタラクティブな環境で行った大規模な実験により, LDM$^2$がスコアと成功率の両方でベースラインを上回り, その効果が示された。
関連論文リスト
- Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - DeeR-VLA: Dynamic Inference of Multimodal Large Language Models for Efficient Robot Execution [114.61347672265076]
実世界のロボットのためのMLLMの開発は、ロボットプラットフォームで利用可能な計算能力とメモリ容量が典型的に限られているため、難しい。
活性化MLLMのサイズを自動的に調整するロボットビジョンランゲージ・アクション・モデル(DeeR)の動的早期実行フレームワークを提案する。
DeeR は LLM の計算コストを 5.2-6.5x に削減し、GPU のメモリを 2-6x に削減した。
論文 参考訳(メタデータ) (2024-11-04T18:26:08Z) - The Labyrinth of Links: Navigating the Associative Maze of Multi-modal LLMs [42.72336063802124]
MLLM(Multi-modal Large Language Models)は印象的な能力を示す。
MLLMの欠陥の多くは、人間の知性(例えば$textite.g.$)と比較して見出されている。
観察と事前の実践記憶をリンクする人間の基本的な能力であるtextbfassociation$。
論文 参考訳(メタデータ) (2024-10-02T10:58:54Z) - $\text{Memory}^3$: Language Modeling with Explicit Memory [22.572376536612015]
我々は、大言語モデル(LLM)に明示的なメモリ、モデルパラメータよりも安いメモリフォーマット、テキスト検索拡張生成(RAG)を装備する。
予備的な概念実証として, 2.4B LLM をゼロからトレーニングし, より大きな LLM モデルやRAG モデルよりも優れた性能を実現する。
本稿では,知識の外部化を支援するメモリ回路理論を導入し,記憶をトラクタブルにするメモリスペーサー化機構を含む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T11:07:23Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。