論文の概要: Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management
- arxiv url: http://arxiv.org/abs/2508.04664v1
- Date: Wed, 06 Aug 2025 17:32:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.851477
- Title: Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management
- Title(参考訳): Sculptor: アクティブコンテキスト管理による認知エージェントによるLLMの強化
- Authors: Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu,
- Abstract要約: 大規模言語モデル(LLM)は、プロアクティブな干渉による長いコンテキストの処理において、大幅な性能劣化に悩まされる。
Sculptorは,(1)文脈の断片化,(2)要約,隠蔽,復元,(3)インテリジェント検索の3つのカテゴリにLLMを組み込んだフレームワークである。
Information-sparse benchmarks-PI-LLM と NeedleBench Multi-Needle Reasoning-demonstrates の実験的評価により、Sculptor は特定の訓練をしなくても性能が大幅に向上する。
- 参考スコア(独自算出の注目度): 9.278797767901098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) suffer from significant performance degradation when processing long contexts due to proactive interference, where irrelevant information in earlier parts of the context disrupts reasoning and memory recall. While most research focuses on external memory systems to augment LLMs' capabilities, we propose a complementary approach: empowering LLMs with Active Context Management (ACM) tools to actively sculpt their internal working memory. We introduce Sculptor, a framework that equips LLMs with three categories of tools: (1) context fragmentation, (2) summary, hide, and restore, and (3) intelligent search. Our approach enables LLMs to proactively manage their attention and working memory, analogous to how humans selectively focus on relevant information while filtering out distractions. Experimental evaluation on information-sparse benchmarks-PI-LLM (proactive interference) and NeedleBench Multi-Needle Reasoning-demonstrates that Sculptor significantly improves performance even without specific training, leveraging LLMs' inherent tool calling generalization capabilities. By enabling Active Context Management, Sculptor not only mitigates proactive interference but also provides a cognitive foundation for more reliable reasoning across diverse long-context tasks-highlighting that explicit context-control strategies, rather than merely larger token windows, are key to robustness at scale.
- Abstract(参考訳): 大きな言語モデル(LLM)は、前向きな干渉によって長いコンテキストを処理する際に大きなパフォーマンス劣化に悩まされる。
LLMの能力を高めるために、ほとんどの研究は外部メモリシステムに焦点をあてているが、我々は、LCMをアクティブコンテキスト管理(ACM)ツールで強化し、内部動作メモリを積極的に彫刻する補完的なアプローチを提案する。
Sculptorは,(1)文脈の断片化,(2)要約,隠蔽,復元,(3)インテリジェント検索の3つのカテゴリにLLMを組み込んだフレームワークである。
我々のアプローチは、LLMが注意と作業記憶を積極的に管理することを可能にする。
Information-sparse benchmarks-PI-LLM (proactive interference) と NeedleBench Multi-Needle Reasoning-demonstrates の実験的評価により、Sculptor は特定のトレーニングなしでも性能を著しく向上し、LLM 固有のツール呼び出し機能を活用している。
Active Context Managementを有効にすることで、Sculptorはプロアクティブな干渉を緩和するだけでなく、より信頼性の高い推論のための基盤を提供する。
関連論文リスト
- Feature Engineering for Agents: An Adaptive Cognitive Architecture for Interpretable ML Monitoring [2.1205272468688574]
大規模言語モデルに基づくエージェントに特徴工学の原則を適用したMLモニタリングのための認知アーキテクチャを提案する。
決定手順モジュールは、リファクタリング、ブレークダウン、コンパイルという3つの重要なステップを通じて、機能エンジニアリングをシミュレートする。
複数のLCMを用いた実験により, 各種ベースラインと比較して精度が有意に向上し, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-06-11T13:48:25Z) - Active-O3: Empowering Multimodal Large Language Models with Active Perception via GRPO [63.140883026848286]
アクティブビジョン(Active Vision)とは、タスク関連情報を収集するために、どこでどのように見るべきかを積極的に選択するプロセスである。
近年,マルチモーダル大規模言語モデル (MLLM) をロボットシステムの中心的計画・意思決定モジュールとして採用する動きが注目されている。
論文 参考訳(メタデータ) (2025-05-27T17:29:31Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Adaptive Tool Use in Large Language Models with Meta-Cognition Trigger [49.81945268343162]
我々は,外部ツール利用のための適応型意思決定戦略であるMeCoを提案する。
MeCoは、表現空間内の高レベル認知信号をキャプチャすることで、メタ認知スコアを定量化する。
MeCoは微調整不要で、最小限のコストがかかる。
論文 参考訳(メタデータ) (2025-02-18T15:45:01Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - LLM In-Context Recall is Prompt Dependent [0.0]
これを行うモデルの能力は、実世界のアプリケーションにおける実用性と信頼性に大きな影響を及ぼす。
本研究は, LLMのリコール能力がプロンプトの内容に影響を及ぼすだけでなく, トレーニングデータのバイアスによって損なわれる可能性があることを示す。
論文 参考訳(メタデータ) (2024-04-13T01:13:59Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Pay Attention to What You Need [8.369701050186867]
大型言語モデル(LLM)は長文理解に苦しむ。
本稿では,LLMの情報解釈・検索能力を高めるために,SRA(Scaled ReAttention)と呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。