論文の概要: ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind
- arxiv url: http://arxiv.org/abs/2505.22961v1
- Date: Thu, 29 May 2025 01:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.599258
- Title: ToMAP: Training Opponent-Aware LLM Persuaders with Theory of Mind
- Title(参考訳): ToMAP:精神理論を用いた対向型LCMパーサの訓練
- Authors: Peixuan Han, Zijia Liu, Jiaxuan You,
- Abstract要約: 我々は、より柔軟な説得エージェントを構築するための新しいアプローチである、心の増補パースオーダ(ToMAP)について紹介する。
ToMAPは、説得者の精神状態に対する認識と分析を高める2つのマインドモジュールの理論を取り入れている。
実験の結果,ToMAPは3Bパラメータのみを含むが,ベースラインよりもはるかに高い性能を示した。
- 参考スコア(独自算出の注目度): 11.53334479303162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown promising potential in persuasion, but existing works on training LLM persuaders are still preliminary. Notably, while humans are skilled in modeling their opponent's thoughts and opinions proactively and dynamically, current LLMs struggle with such Theory of Mind (ToM) reasoning, resulting in limited diversity and opponent awareness. To address this limitation, we introduce Theory of Mind Augmented Persuader (ToMAP), a novel approach for building more flexible persuader agents by incorporating two theory of mind modules that enhance the persuader's awareness and analysis of the opponent's mental state. Specifically, we begin by prompting the persuader to consider possible objections to the target central claim, and then use a text encoder paired with a trained MLP classifier to predict the opponent's current stance on these counterclaims. Our carefully designed reinforcement learning schema enables the persuader learns how to analyze opponent-related information and utilize it to generate more effective arguments. Experiments show that the ToMAP persuader, while containing only 3B parameters, outperforms much larger baselines, like GPT-4o, with a relative gain of 39.4% across multiple persuadee models and diverse corpora. Notably, ToMAP exhibits complex reasoning chains and reduced repetition during training, which leads to more diverse and effective arguments. The opponent-aware feature of ToMAP also makes it suitable for long conversations and enables it to employ more logical and opponent-aware strategies. These results underscore our method's effectiveness and highlight its potential for developing more persuasive language agents. Code is available at: https://github.com/ulab-uiuc/ToMAP.
- Abstract(参考訳): 大規模言語モデル(LLM)は説得に有望な可能性を示してきたが、LLM説得者の訓練に関する既存の研究はまだ予備的な段階である。
特に、人間は相手の考えや意見を積極的に動的にモデル化する能力を持っているが、現在のLLMはそのような心の理論(ToM)の推論に苦しむため、多様性や相手の意識は限られている。
この制限に対処するために、我々は、より柔軟な説得者エージェントを構築するための新しいアプローチである、心的説得者理論(ToMAP)を導入し、相手の精神状態に対する理解と分析を強化する2つの心的モジュールの理論を取り入れた。
具体的には、まず、提案者に対して、対象の中心的クレームに対する反論について検討するよう促し、次に、訓練されたMLP分類器と組み合わせたテキストエンコーダを用いて、これらの反論に対する相手の現在の姿勢を予測することから始める。
提案手法により, より効果的な議論を生成するために, より慎重に設計した強化学習スキーマにより, 説得者が相手関連情報を解析する方法を学習し, 利用することができる。
実験の結果、ToMAP は3Bパラメータしか含まないものの、GPT-4o のようなはるかに大きなベースラインを上回り、複数のコンプリケートモデルと多様なコーパスで相対的に39.4%の上昇を示した。
特に、ToMAPは複雑な推論連鎖を示し、訓練の繰り返しを減らし、より多様で効果的な議論につながる。
ToMAPの対人対応機能は、長い会話に適しており、より論理的で対人対応の戦略を採用することができる。
これらの結果は,提案手法の有効性を裏付けるものであり,より説得力のある言語エージェントの開発の可能性を強調している。
コードは、https://github.com/ulab-uiuc/ToMAP.comで入手できる。
関連論文リスト
- Persuade Me if You Can: A Framework for Evaluating Persuasion Effectiveness and Susceptibility Among Large Language Models [9.402740034754455]
大きな言語モデル(LLM)は、人間レベルの説得と競合する説得力を示す。
LLMの説得への感受性は、倫理的原則との整合性に関する懸念を提起する。
マルチエージェントインタラクションによる説得評価フレームワークPersuade Me If You Can (PMIYC)を紹介した。
論文 参考訳(メタデータ) (2025-03-03T18:53:21Z) - PersuasiveToM: A Benchmark for Evaluating Machine Theory of Mind in Persuasive Dialogues [27.231701486961917]
本稿では,大規模言語モデルのマインド能力理論を評価するためのベンチマークであるPersuasiveToMを提案する。
フレームワークには、ToM ReasoningとToM Applicationという2つのコアタスクが含まれています。
PersuasiveToMの目的は、複雑な心理的活動に焦点を当てたLSMのToM推論能力を効果的に評価することである。
論文 参考訳(メタデータ) (2025-02-28T13:04:04Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。