論文の概要: LLMs Can't Play Hangman: On the Necessity of a Private Working Memory for Language Agents
- arxiv url: http://arxiv.org/abs/2601.06973v1
- Date: Sun, 11 Jan 2026 16:06:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.095641
- Title: LLMs Can't Play Hangman: On the Necessity of a Private Working Memory for Language Agents
- Title(参考訳): LLMはHangmanをプレイできない: 言語エージェントのためのプライベートなワーキングメモリの必要性について
- Authors: Davide Baldelli, Ali Parviz, Amal Zouaq, Sarath Chandar,
- Abstract要約: プライベートステートインタラクティブタスク(PSIT)を定義します。
PSITは、一貫した公開応答を生成しながら、隠された情報の生成と維持をエージェントに要求する。
公開会話履歴に制限されたエージェントは,PSITにおける秘密性と一貫性を同時に保持できないことが理論的に示されている。
明示的なプライベートなワーキングメモリを組み込んだ新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 18.273509519961255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As LLMs move from text completion toward autonomous agents, they remain constrained by the standard chat interface, which lacks private working memory. This raises a fundamental question: can agents reliably perform interactive tasks that depend on hidden state? We define Private State Interactive Tasks (PSITs), which require agents to generate and maintain hidden information while producing consistent public responses. We show theoretically that any agent restricted to the public conversation history cannot simultaneously preserve secrecy and consistency in PSITs, yielding an impossibility theorem. To empirically validate this limitation, we introduce a self-consistency testing protocol that evaluates whether agents can maintain a hidden secret across forked dialogue branches. Standard chat-based LLMs and retrieval-based memory baselines fail this test regardless of scale, demonstrating that semantic retrieval does not enable true state maintenance. To address this, we propose a novel architecture incorporating an explicit private working memory; we demonstrate that this mechanism restores consistency, establishing private state as a necessary component for interactive language agents.
- Abstract(参考訳): LLMはテキスト補完から自律的なエージェントに移行するため、プライベートなワーキングメモリを持たない標準的なチャットインターフェースに制約される。
エージェントは隠れた状態に依存する対話的なタスクを確実に実行できますか?
エージェントが一貫した公開応答を生成しながら隠蔽情報を生成・維持する必要があるプライベートステートインタラクティブタスク(PSIT)を定義した。
理論的には、公開会話履歴に制限されたエージェントは、PSITにおける秘密性と一貫性を同時に保持することができず、不合理性定理を導出する。
この制限を実証的に検証するために、エージェントがフォークダイアログの枝に隠された秘密を保持できるかどうかを評価する自己整合性テストプロトコルを導入する。
標準的なチャットベースのLLMと検索ベースのメモリベースラインは、スケールに関係なくこのテストに失敗し、セマンティック検索が真の状態維持を可能にしないことを示す。
そこで我々は,この機構が一貫性を回復し,対話型言語エージェントに必要なコンポーネントとしてプライベート状態を確立することを実証する。
関連論文リスト
- Semantically-Aware LLM Agent to Enhance Privacy in Conversational AI Services [0.0]
遠隔Large Language Models (LLM) を用いた場合, センシティブなPIIデータを保護するためのセマンティック・アウェア・プライバシ・エージェントを提案する。
応答品質を劣化させるような以前の作業とは異なり、我々のアプローチはユーザプロンプトのセンシティブなPIIエンティティを意味的に一貫した名前で動的に置き換える。
この結果から,LOPSIDEDは基本手法と比較して意味的ユーティリティエラーを5倍に削減できることがわかった。
論文 参考訳(メタデータ) (2025-10-30T21:34:23Z) - GAMA: A General Anonymizing Multi-Agent System for Privacy Preservation Enhanced by Domain Rules and Disproof Mechanism [14.491054279033968]
GAMA(General Anonymizing Multi-Agent System)
GAMAはエージェントのワークスペースをプライベートとパブリックに分割し、構造化された匿名化機構を通じてプライバシーを確保する。
GAMAを2つの一般的な質問応答データセット、公開プライバシーリークベンチマーク、およびプライバシに関連する2つのカスタマイズされた質問応答データセットで評価する。
論文 参考訳(メタデータ) (2025-09-12T07:22:49Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - GuardAgent: Safeguard LLM Agents by a Guard Agent via Knowledge-Enabled Reasoning [79.07152553060601]
安全ガード要求を満たすか否かを動的に確認し,目標エージェントを保護する最初のガードレールエージェントであるガードアジェントを提案する。
特にGuardAgentは、まず安全ガードの要求を分析してタスクプランを生成し、それからその計画をガードレールコードにマップして実行します。
GuardAgentは、それぞれ98%と83%のガードレール精度を持つ2つのベンチマークにおいて、異なる種類のエージェントに対する違反行為を効果的に抑制することを示した。
論文 参考訳(メタデータ) (2024-06-13T14:49:26Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。