論文の概要: Make an Offer They Can't Refuse: Grounding Bayesian Persuasion in Real-World Dialogues without Pre-Commitment
- arxiv url: http://arxiv.org/abs/2510.13387v1
- Date: Wed, 15 Oct 2025 10:26:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.622252
- Title: Make an Offer They Can't Refuse: Grounding Bayesian Persuasion in Real-World Dialogues without Pre-Commitment
- Title(参考訳): 否定できないオファー - 実世界対話におけるベイズ的説得の前提として-
- Authors: Buwei He, Yang Liu, Zhaowei Zhang, Zixia Jia, Huijia Wu, Zhaofeng He, Zilong Zheng, Yipeng Kang,
- Abstract要約: 単ターン対話設定における自然言語へのベイジアン説得(BP)の適用について検討する。
本フレームワークは,情報スキーマを明確に概説するコミットメントコミュニケーション機構を備えている。
提案手法では,FNLBPとFNLBPの2つの変種を評価し,非BP基線と非BP基線の両方に対してベンチマークを行った。
- 参考スコア(独自算出の注目度): 37.956665725390884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persuasion, a fundamental social capability for humans, remains a challenge for AI systems such as large language models (LLMs). Current studies often overlook the strategic use of information asymmetry in message design or rely on strong assumptions regarding pre-commitment. In this work, we explore the application of Bayesian Persuasion (BP) in natural language within single-turn dialogue settings, to enhance the strategic persuasion capabilities of LLMs. Our framework incorporates a commitment-communication mechanism, where the persuader explicitly outlines an information schema by narrating their potential types (e.g., honest or dishonest), thereby guiding the persuadee in performing the intended Bayesian belief update. We evaluate two variants of our approach: Semi-Formal-Natural-Language (SFNL) BP and Fully-Natural-Language (FNL) BP, benchmarking them against both naive and strong non-BP (NBP) baselines within a comprehensive evaluation framework. This framework covers a diverse set of persuadees -- including LLM instances with varying prompts and fine-tuning and human participants -- across tasks ranging from specially designed persuasion scenarios to general everyday situations. Experimental results on LLM-based agents reveal three main findings: (1) LLMs guided by BP strategies consistently achieve higher persuasion success rates than NBP baselines; (2) SFNL exhibits greater credibility and logical coherence, while FNL shows stronger emotional resonance and robustness in naturalistic conversations; (3) with supervised fine-tuning, smaller models can attain BP performance comparable to that of larger models.
- Abstract(参考訳): 人間の基本的な社会的能力である説得は、大きな言語モデル(LLM)のようなAIシステムにとって依然として課題である。
最近の研究は、しばしばメッセージ設計における情報非対称性の戦略的利用を見落としている。
本研究では,LLMの戦略的説得能力を高めるために,単ターン対話設定における自然言語へのベイズ説得(BP)の適用について検討する。
提案手法にはコミットメントコミュニケーション機構が組み込まれており,説得者が潜在的なタイプ(例えば,正直さ,不正直さ)を語り,意図したベイズ的信念更新を行う上での説得を導くことによって,情報スキーマを明確に概説する。
提案手法では,FNLBPとFNLBPの2つの変種を評価し,包括的評価枠組みにおける非BP基線と非BP基線とのベンチマークを行った。
このフレームワークは、特別に設計された説得シナリオから日常の一般的な状況に至るまで、さまざまなプロンプトを持つLLMインスタンス、微調整と人間の参加者を含む、さまざまな説得をカバーしています。
LLMをベースとしたエージェントによる実験結果から,(1)BP戦略によって導かれるLCMは,NBPベースラインよりも高い説得率を達成すること,(2)SFNLは信頼性と論理的一貫性を示すこと,(2)FNLは自然な会話において強い感情共鳴と堅牢性を示すこと,(3)教師付き微調整により,より小型のモデルでは,BP性能を大型モデルと同等に達成できること,の3つの主な結果が得られた。
関連論文リスト
- Towards Strategic Persuasion with Language Models [23.7697785759693]
大規模言語モデル(LLM)は、人間のものと同等の強い説得能力を示している。
LLMの説得能力を測定するためのスケーラブルで原則化されたフレームワークを提供するために、理論駆動のアプローチを採用する。
論文 参考訳(メタデータ) (2025-09-26T23:00:15Z) - How Good are Foundation Models in Step-by-Step Embodied Reasoning? [79.15268080287505]
身体的エージェントは、安全で空間的に整合性があり、文脈に根ざした決定をしなければならない。
大規模マルチモーダルモデルの最近の進歩は、視覚的理解と言語生成において有望な能力を示している。
私たちのベンチマークには、10のタスクと8のエボディメントにまたがる詳細なステップバイステップ推論を備えた1.1k以上のサンプルが含まれています。
論文 参考訳(メタデータ) (2025-09-18T17:56:30Z) - LLM Agents for Bargaining with Utility-based Feedback [23.357706450282002]
ユーティリティベースのフィードバックを中心とした包括的フレームワークを導入する。
1)新しいベンチマークデータセットであるBargainArena,(2)ユーティリティ理論にインスパイアされた人力による経済的な評価指標,(3)LCMを反復的にバリ取り戦略を洗練させる構造的フィードバックメカニズムである。
論文 参考訳(メタデータ) (2025-05-29T02:07:27Z) - Adversarial Testing in LLMs: Insights into Decision-Making Vulnerabilities [5.0778942095543576]
本稿では,大規模言語モデルの意思決定過程を体系的にストレステストする逆評価フレームワークを提案する。
我々は、GPT-3.5、GPT-4、Gemini-1.5、DeepSeek-V3など、最先端のLLMに適用する。
我々の研究は、モデル間で異なる行動パターンを強調し、信頼できるAIデプロイメントにおける適応性と公平性認識の重要性を強調した。
論文 参考訳(メタデータ) (2025-05-19T14:50:44Z) - Aligning Large Language Models for Faithful Integrity Against Opposing Argument [71.33552795870544]
大規模言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
原文が正しい場合でも、会話中に不誠実な議論によって容易に誤解される。
本稿では,信頼度と信頼度を両立させる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-02T16:38:21Z) - Counterfactual Reasoning Using Predicted Latent Personality Dimensions for Optimizing Persuasion Outcome [13.731895847081953]
本稿では,現在進行中の説得会話において,ユーザの潜在人格次元(LPD)を追跡する新しいアプローチを提案する。
我々はこれらのLPDに基づいて、全体的な説得結果を最適化するために、調整済みの対物発話を生成する。
論文 参考訳(メタデータ) (2024-04-21T23:03:47Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。