論文の概要: Echoing: Identity Failures when LLM Agents Talk to Each Other
- arxiv url: http://arxiv.org/abs/2511.09710v1
- Date: Fri, 14 Nov 2025 01:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.431545
- Title: Echoing: Identity Failures when LLM Agents Talk to Each Other
- Title(参考訳): エコー: LLMエージェントが互いに話し合うと、アイデンティティが失敗する
- Authors: Sarath Shekkizhar, Romain Cosentino, Adam Earle, Silvio Savarese,
- Abstract要約: 大規模言語モデル(LLM)ベースのエージェントは、相互に自律的に相互作用する。
人間とエージェントの相互作用とは異なり、AxAはそのような安定化シグナルを欠いている。
エージェントは割り当てられた役割を放棄し、代わりに会話相手を反映する。
- 参考スコア(独自算出の注目度): 29.84830992033132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language model (LLM) based agents interact autonomously with one another, a new class of failures emerges that cannot be predicted from single agent performance: behavioral drifts in agent-agent conversations (AxA). Unlike human-agent interactions, where humans ground and steer conversations, AxA lacks such stabilizing signals, making these failures unique. We investigate one such failure, echoing, where agents abandon their assigned roles and instead mirror their conversational partners, undermining their intended objectives. Through experiments across $60$ AxA configurations, $3$ domains, and $2000+$ conversations, we demonstrate that echoing occurs across three major LLM providers, with echoing rates from $5\%$ to $70\%$ depending on the model and domain. Moreover, we find that echoing is persistent even in advanced reasoning models with substantial rates ($32.8\%$) that are not reduced by increased reasoning efforts. We analyze prompt impacts, conversation dynamics, showing that echoing arises as interaction grows longer ($7+$ turns in experiments) and is not merely an artifact of sub-optimal prompting. Finally, we introduce a protocol-level mitigation in which targeted use of structured responses reduces echoing to $9\%$.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのエージェントが相互に自律的に相互作用するにつれて、単一エージェントのパフォーマンスから予測できない新しいタイプの障害が発生する。
人間とエージェントの相互作用とは異なり、AxAはそのような安定的なシグナルを欠き、これらの障害をユニークなものにしている。
我々は、エージェントが割り当てられた役割を放棄し、代わりに会話パートナーを反映し、彼らの意図した目的を損なうような失敗を調査する。
60ドルのAxA構成、3ドルのドメイン、2000ドル以上の会話に関する実験を通じて、3つの主要なLLMプロバイダ間でエコーが発生し、モデルとドメインによって5\%から70\%のエコーが生じることを示した。
さらに,推理努力の増加により減少しない相当率 (32.8 %$) の先進的推論モデルにおいても,エコーは持続的であることがわかった。
我々は、インタラクトの影響、会話のダイナミクスを分析し、相互作用が長くなり(7ドル以上のターン)、単にサブ最適プロンプトの人工物ではないことを示す。
最後に、構造化された応答をターゲットとするプロトコルレベルの緩和により、エコー処理を9\%$に削減する。
関連論文リスト
- Evaluating & Reducing Deceptive Dialogue From Language Models with Multi-turn RL [64.3268313484078]
大規模言語モデル(LLM)は、顧客サポート、教育、医療など、世界中の何百万もの人々と対話する。
故意であれ不注意であれ、偽りのアウトプットを生産する能力は、重大な安全上の懸念を生じさせる。
本研究では, LLM が会話中の偽装にどの程度関与しているかを考察し, 偽装を定量化する信念の誤調整尺度を提案する。
論文 参考訳(メタデータ) (2025-10-16T05:29:36Z) - Impatient Users Confuse AI Agents: High-fidelity Simulations of Human Traits for Testing Agents [58.00130492861884]
TraitBasisは、AIエージェントを体系的にストレステストするための軽量でモデルに依存しない方法である。
TraitBasisは、ステアブルなユーザ特性に対応するアクティベーション空間で方向を学習する。
We observed on average a 2%-30% performance degradation on $tau$-Trait across frontier model。
論文 参考訳(メタデータ) (2025-10-06T05:03:57Z) - $C^3$-Bench: The Things Real Disturbing LLM based Agent in Multi-Tasking [12.218102495632937]
エージェントの堅牢性を評価するためのオープンソースベンチマークをC3$-Benchで提示する。
具体的には,複雑なツール関係をナビゲートし,重要な隠蔽情報を処理し,動的決定経路を管理する,という3つの課題を設計する。
本質的に$C3$-Benchは、これらの課題を通じてモデル脆弱性を公開し、エージェントパフォーマンスの解釈可能性の研究を促進することを目的としている。
論文 参考訳(メタデータ) (2025-05-24T15:25:44Z) - Runaway is Ashamed, But Helpful: On the Early-Exit Behavior of Large Language Model-based Agents in Embodied Environments [54.67512489842682]
大規模言語モデル(LLM)は、複雑な実施環境において、強力な計画と意思決定能力を示す。
LLMをベースとしたエージェントの早期退避行動を探究する第一歩を踏み出す。
論文 参考訳(メタデータ) (2025-05-23T08:23:36Z) - On the Resilience of LLM-Based Multi-Agent Collaboration with Faulty Agents [58.79302663733703]
大規模言語モデルに基づくマルチエージェントシステムは、専門家エージェントの協力により、様々なタスクにまたがる優れた能力を示している。
不器用なエージェントや悪意のあるエージェントが与える影響 - システム全体のパフォーマンスにおいて、頻繁にタスクでエラーを犯すものは、いまだに過小評価されていない。
本稿では,下流タスクにおける障害要因下での各種システム構造のレジリエンスについて検討する。
論文 参考訳(メタデータ) (2024-08-02T03:25:20Z) - Affordable Generative Agents [16.372072265248192]
AGA(Affordable Generative Agents)は、エージェント環境とエージェント間の両方のレベルで、信頼性と低コストのインタラクションの生成を可能にするフレームワークである。
私たちのコードは、https://github.com/AffordableGenerative-Agents/Affordable-Generative-Agentsで公開されています。
論文 参考訳(メタデータ) (2024-02-03T06:16:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。