論文の概要: ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind
- arxiv url: http://arxiv.org/abs/2505.22961v1
- Date: Thu, 29 May 2025 01:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.599258
- Title: ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind
- Title(参考訳): ToMAP:精神理論を用いた対向型LCMパーサの訓練
- Authors: Peixuan Han, Zijia Liu, Jiaxuan You,
- Abstract要約: 我々は、より柔軟な説得エージェントを構築するための新しいアプローチである、心の増補パースオーダ(ToMAP)について紹介する。
ToMAPは、説得者の精神状態に対する認識と分析を高める2つのマインドモジュールの理論を取り入れている。
実験の結果,ToMAPは3Bパラメータのみを含むが,ベースラインよりもはるかに高い性能を示した。
- 参考スコア(独自算出の注目度): 11.53334479303162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown promising potential in persuasion, but existing works on training LLM persuaders are still preliminary. Notably, while humans are skilled in modeling their opponent's thoughts and opinions proactively and dynamically, current LLMs struggle with such Theory of Mind (ToM) reasoning, resulting in limited diversity and opponent awareness. To address this limitation, we introduce Theory of Mind Augmented Persuader (ToMAP), a novel approach for building more flexible persuader agents by incorporating two theory of mind modules that enhance the persuader's awareness and analysis of the opponent's mental state. Specifically, we begin by prompting the persuader to consider possible objections to the target central claim, and then use a text encoder paired with a trained MLP classifier to predict the opponent's current stance on these counterclaims. Our carefully designed reinforcement learning schema enables the persuader learns how to analyze opponent-related information and utilize it to generate more effective arguments. Experiments show that the ToMAP persuader, while containing only 3B parameters, outperforms much larger baselines, like GPT-4o, with a relative gain of 39.4% across multiple persuadee models and diverse corpora. Notably, ToMAP exhibits complex reasoning chains and reduced repetition during training, which leads to more diverse and effective arguments. The opponent-aware feature of ToMAP also makes it suitable for long conversations and enables it to employ more logical and opponent-aware strategies. These results underscore our method's effectiveness and highlight its potential for developing more persuasive language agents. Code is available at: https://github.com/ulab-uiuc/ToMAP.
- Abstract(参考訳): 大規模言語モデル(LLM)は説得に有望な可能性を示してきたが、LLM説得者の訓練に関する既存の研究はまだ予備的な段階である。
特に、人間は相手の考えや意見を積極的に動的にモデル化する能力を持っているが、現在のLLMはそのような心の理論(ToM)の推論に苦しむため、多様性や相手の意識は限られている。
この制限に対処するために、我々は、より柔軟な説得者エージェントを構築するための新しいアプローチである、心的説得者理論(ToMAP)を導入し、相手の精神状態に対する理解と分析を強化する2つの心的モジュールの理論を取り入れた。
具体的には、まず、提案者に対して、対象の中心的クレームに対する反論について検討するよう促し、次に、訓練されたMLP分類器と組み合わせたテキストエンコーダを用いて、これらの反論に対する相手の現在の姿勢を予測することから始める。
提案手法により, より効果的な議論を生成するために, より慎重に設計した強化学習スキーマにより, 説得者が相手関連情報を解析する方法を学習し, 利用することができる。
実験の結果、ToMAP は3Bパラメータしか含まないものの、GPT-4o のようなはるかに大きなベースラインを上回り、複数のコンプリケートモデルと多様なコーパスで相対的に39.4%の上昇を示した。
特に、ToMAPは複雑な推論連鎖を示し、訓練の繰り返しを減らし、より多様で効果的な議論につながる。
ToMAPの対人対応機能は、長い会話に適しており、より論理的で対人対応の戦略を採用することができる。
これらの結果は,提案手法の有効性を裏付けるものであり,より説得力のある言語エージェントの開発の可能性を強調している。
コードは、https://github.com/ulab-uiuc/ToMAP.comで入手できる。
関連論文リスト
- RLVER: Reinforcement Learning with Verifiable Emotion Rewards for Empathetic Agents [67.46032287312339]
大規模言語モデル(LLM)は論理的およびアルゴリズム的推論において優れているが、彼らの感情的知性(EQ)は認知能力よりもはるかに遅れている。
シミュレーションユーザによる検証可能な感情報酬を活用する,最初のエンドツーエンド強化学習フレームワークであるRLVERを紹介する。
以上の結果から,RLVERは感情的知的で幅広い言語エージェントへの実践的な経路であることが示唆された。
論文 参考訳(メタデータ) (2025-07-03T18:33:18Z) - The Thin Line Between Comprehension and Persuasion in LLMs [0.0]
大規模言語モデル(LLM)は高レベルで説得力のある対話を維持するのに優れている。
私たちは、この能力が話されていることに対する理解にどのように関係しているかを測定します。
LLMは一貫性のある説得力のある議論を維持でき、しばしば参加者や聴衆の信念を揺さぶる。
論文 参考訳(メタデータ) (2025-07-02T17:46:56Z) - Thinkless: LLM Learns When to Think [57.857534644932194]
推論モデル(Reasoning Language Models)は、複雑な論理的推論を必要とするタスクにおいて顕著な性能を示す。
我々は,LLMが短文推論と長文推論を適応的に選択できる学習可能なフレームワークであるThinklessを提案する。
Minerva Algebra、MATH-500、GSM8Kなどのベンチマークでは、Thinklessはロングチェーン思考の使用を50%から90%削減することができる。
論文 参考訳(メタデータ) (2025-05-19T17:24:16Z) - Persuade Me if You Can: A Framework for Evaluating Persuasion Effectiveness and Susceptibility Among Large Language Models [9.402740034754455]
大きな言語モデル(LLM)は、人間レベルの説得と競合する説得力を示す。
LLMの説得への感受性は、倫理的原則との整合性に関する懸念を提起する。
マルチエージェントインタラクションによる説得評価フレームワークPersuade Me If You Can (PMIYC)を紹介した。
論文 参考訳(メタデータ) (2025-03-03T18:53:21Z) - PersuasiveToM: A Benchmark for Evaluating Machine Theory of Mind in Persuasive Dialogues [27.231701486961917]
本稿では,大規模言語モデルのマインド能力理論を評価するためのベンチマークであるPersuasiveToMを提案する。
フレームワークには、ToM ReasoningとToM Applicationという2つのコアタスクが含まれています。
PersuasiveToMの目的は、複雑な心理的活動に焦点を当てたLSMのToM推論能力を効果的に評価することである。
論文 参考訳(メタデータ) (2025-02-28T13:04:04Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。