論文の概要: Large Language Models Persuade Without Planning Theory of Mind
- arxiv url: http://arxiv.org/abs/2602.17045v1
- Date: Thu, 19 Feb 2026 03:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.616663
- Title: Large Language Models Persuade Without Planning Theory of Mind
- Title(参考訳): 計画的心論を伴わない大規模言語モデル
- Authors: Jared Moore, Rasmus Overmark, Ned Cooper, Beba Cibralic, Nick Haber, Cameron R. Jones,
- Abstract要約: 我々は,エージェントが3つの政策提案のうちの1つを戦略的に情報公開することで,ターゲットを説得する新しいToMタスクを開発する。
成功は、ある目標の知識状態(ターゲットがポリシーについて知っているもの)と動機的状態(ターゲットがどの程度異なる結果を評価するか)に対する説得者の感受性に依存する。
実効的な説得は、明示的なToM推論(例えば、修辞的戦略を通じて)なしで起こり、LLMはこのような説得形式で優れている。
- 参考スコア(独自算出の注目度): 13.778268027658482
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A growing body of work attempts to evaluate the theory of mind (ToM) abilities of humans and large language models (LLMs) using static, non-interactive question-and-answer benchmarks. However, theoretical work in the field suggests that first-personal interaction is a crucial part of ToM and that such predictive, spectatorial tasks may fail to evaluate it. We address this gap with a novel ToM task that requires an agent to persuade a target to choose one of three policy proposals by strategically revealing information. Success depends on a persuader's sensitivity to a given target's knowledge states (what the target knows about the policies) and motivational states (how much the target values different outcomes). We varied whether these states were Revealed to persuaders or Hidden, in which case persuaders had to inquire about or infer them. In Experiment 1, participants persuaded a bot programmed to make only rational inferences. LLMs excelled in the Revealed condition but performed below chance in the Hidden condition, suggesting difficulty with the multi-step planning required to elicit and use mental state information. Humans performed moderately well in both conditions, indicating an ability to engage such planning. In Experiment 2, where a human target role-played the bot, and in Experiment 3, where we measured whether human targets' real beliefs changed, LLMs outperformed human persuaders across all conditions. These results suggest that effective persuasion can occur without explicit ToM reasoning (e.g., through rhetorical strategies) and that LLMs excel at this form of persuasion. Overall, our results caution against attributing human-like ToM to LLMs while highlighting LLMs' potential to influence people's beliefs and behavior.
- Abstract(参考訳): 人間の心の理論(ToM)と大規模言語モデル(LLM)を静的な非対話的質問・回答ベンチマークを用いて評価しようとする研究が増えている。
しかし、この分野における理論的研究は、第一対人的相互作用がToMの重要な部分であり、そのような予測的でスペクタリアルなタスクがそれを評価するのに失敗する可能性を示唆している。
このギャップを、エージェントが戦略的に情報を公開することで、ターゲットに3つの政策提案のうちの1つを選択するよう説得する新しいToMタスクで解決する。
成功は、ある目標の知識状態(ターゲットがポリシーについて知っているもの)とモチベーション状態(ターゲットがどの程度異なる結果を評価するか)に対する説得者の感受性に依存する。
これらの州が説得者に対して啓示されたか、あるいは隠されたかによって異なっており、その場合、説得者はそれらを審問するか、推測しなければならない。
実験1では、参加者は合理的な推論のみを行うようプログラムされたボットを説得した。
LLMはRevealed条件では優れていたが、Hidden条件では低い確率で実行され、精神状態情報を引き出すのに必要な多段階計画の難しさが示唆された。
人間はどちらの条件でも適度に行動し、そのような計画を行う能力を示した。
実験2では、人間の標的がボットを演じ、実験3では、人間の現実の信念が変化したかどうかを測定しました。
これらの結果から, 明確なToM推論(例えば, 修辞的戦略)を伴わずに効果的な説得が可能であり, LLMはこのような説得形式で優れていることが示唆された。
以上の結果から, LLMが人々の信念や行動に影響を及ぼす可能性を強調しつつ, 人間のようなToMをLSMにもたらすことを警告した。
関連論文リスト
- Beyond Prompt-Induced Lies: Investigating LLM Deception on Benign Prompts [79.1081247754018]
大規模言語モデル(LLM)は、推論、計画、意思決定のタスクに広くデプロイされている。
そこで我々は, 接触探索質問(CSQ)に基づく枠組みを提案し, 騙しの可能性を定量化する。
論文 参考訳(メタデータ) (2025-08-08T14:46:35Z) - Do Large Language Models Have a Planning Theory of Mind? Evidence from MindGames: a Multi-Step Persuasion Task [1.9998928079358735]
我々は、MindGames: a novel planning theory of Mind (PToM) taskを提示する。
ヒトはPTOMタスクにおいて,o1-preview(LLM)を著しく上回っていることがわかった。
これらの結果は、人間のような社会的推論と心の理論の間に大きなギャップがあることを示唆している。
論文 参考訳(メタデータ) (2025-07-22T03:15:27Z) - It's the Thought that Counts: Evaluating the Attempts of Frontier LLMs to Persuade on Harmful Topics [5.418014947856176]
我々は,説得的試みの頻度と文脈を説得し,測定する意思を識別する自動モデルを導入する。
オープンかつクローズドウェイトなモデルの多くは、有害なトピックに対する説得を積極的に試みている。
論文 参考訳(メタデータ) (2025-06-03T13:37:51Z) - PersuasiveToM: A Benchmark for Evaluating Machine Theory of Mind in Persuasive Dialogues [27.231701486961917]
本稿では,大規模言語モデルのマインド能力理論を評価するためのベンチマークであるPersuasiveToMを提案する。
フレームワークには、ToM ReasoningとToM Applicationという2つのコアタスクが含まれています。
PersuasiveToMの目的は、複雑な心理的活動に焦点を当てたLSMのToM推論能力を効果的に評価することである。
論文 参考訳(メタデータ) (2025-02-28T13:04:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Clever Hans or Neural Theory of Mind? Stress Testing Social Reasoning in
Large Language Models [82.50173296858377]
多くの逸話例は、ChatGPTやGPT-4のような新しい大規模言語モデル(LLM)が、N-ToM(Neural Theory-of-Mind)を示すことを示唆するために使用された。
我々は,LLMsのN-ToMの範囲を6つのタスクに対して広範囲に評価することにより検討し,LLMsが特定のN-ToM能力を示す一方で,この挙動は堅牢性には程遠いことを見出した。
論文 参考訳(メタデータ) (2023-05-24T06:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。