論文の概要: On the Adaptive Psychological Persuasion of Large Language Models
- arxiv url: http://arxiv.org/abs/2506.06800v1
- Date: Sat, 07 Jun 2025 13:52:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.484752
- Title: On the Adaptive Psychological Persuasion of Large Language Models
- Title(参考訳): 大規模言語モデルの適応心理学的説得について
- Authors: Tianjie Ju, Yujia Chen, Hao Fei, Mong-Li Lee, Wynne Hsu, Pengzhou Cheng, Zongru Wu, Zhuosheng Zhang, Gongshen Liu,
- Abstract要約: 我々は,Large Language Models (LLMs) が自律的に説得し,説得に抵抗できることを示した。
総合的な心理的説得戦略を11つ導入する。
最適戦略を自律的に選択するようにLLMを訓練する適応型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 37.18479986426215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work has showcased the intriguing capabilities of Large Language Models (LLMs) in instruction-following and rhetorical fluency. However, systematic exploration of their dual capabilities to autonomously persuade and resist persuasion, particularly in contexts involving psychological rhetoric, remains unexplored. In this paper, we first evaluate four commonly adopted LLMs by tasking them to alternately act as persuaders and listeners in adversarial dialogues. Empirical results show that persuader LLMs predominantly employ repetitive strategies, leading to low success rates. Then we introduce eleven comprehensive psychological persuasion strategies, finding that explicitly instructing LLMs to adopt specific strategies such as Fluency Effect and Repetition Effect significantly improves persuasion success rates. However, no ``one-size-fits-all'' strategy proves universally effective, with performance heavily dependent on contextual counterfactuals. Motivated by these observations, we propose an adaptive framework based on direct preference optimization that trains LLMs to autonomously select optimal strategies by leveraging persuasion results from strategy-specific responses as preference pairs. Experiments on three open-source LLMs confirm that the proposed adaptive psychological persuasion method effectively enables persuader LLMs to select optimal strategies, significantly enhancing their success rates while maintaining general capabilities. Our code is available at https://github.com/KalinaEine/PsychologicalPersuasion.
- Abstract(参考訳): これまでの研究は、命令追従および修辞流速におけるLLM(Large Language Models)の興味深い機能を示してきた。
しかし、自律的に説得し、説得に抵抗する2つの能力の体系的な探索、特に心理学的修辞学に関わる文脈では、まだ解明されていない。
本稿では,まず,敵対対話における説得者と聞き手とを交互に行うことを課題として,広く採用されている4つのLSMについて評価する。
実証実験の結果、LLMは反復戦略を主に採用し、成功率の低下につながった。
次に、11の総合的心理的説得戦略を導入し、LLMに対して、頻度効果や反復効果などの特定の戦略を明示的に導入するよう指示することは、説得の成功率を著しく改善することを発見した。
しかし、‘1-size-fits-all’戦略が普遍的に有効であることは証明されておらず、パフォーマンスは文脈上のカウンターファクトに大きく依存している。
そこで本研究では, LLMに対して, 選択ペアとして戦略特異的応答による説得結果を活用することで, 最適戦略を自律的に選択するように指導する, 直接選好最適化に基づく適応型フレームワークを提案する。
3つのオープンソース LLM 実験により,提案手法により説得者 LLM が最適な戦略を選択でき,その成功率を大幅に向上できることを確認した。
私たちのコードはhttps://github.com/KalinaEine/PsychologicalPersuasion.comで公開されています。
関連論文リスト
- SMART: Self-learning Meta-strategy Agent for Reasoning Tasks [44.45037694899524]
SMART(Self-learning Meta-Strategy Agent for Reasoning Tasks)は、LMが様々な推論タスクの最も効果的な戦略を学習し、選択できる新しいフレームワークである。
我々は、戦略選択プロセスをマルコフ決定プロセスとしてモデル化し、強化学習による継続的自己改善を活用する。
実験の結果,SMARTは外部ガイダンスを使わずに最適な戦略を選択する能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-10-21T15:55:04Z) - Can Large Language Models be Good Emotional Supporter? Mitigating Preference Bias on Emotional Support Conversation [28.74445806009475]
この研究はESConv上での大規模言語モデル(LLM)の結果を分析した。
特定の戦略に対する高い嗜好を示すことは、効果的な感情的支援を妨げている。
その結果,(1) 特定の戦略に対する嗜好の低さは情緒的支援の進行を妨げること,(2) 外部援助は嗜好バイアスの軽減に役立つこと,(3) 既存のLCMだけでは感情的な支持者にはならないこと,などが強調された。
論文 参考訳(メタデータ) (2024-02-20T18:21:32Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。