論文の概要: Large Language Models Are More Persuasive Than Incentivized Human Persuaders
- arxiv url: http://arxiv.org/abs/2505.09662v2
- Date: Wed, 21 May 2025 13:29:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 13:19:52.29699
- Title: Large Language Models Are More Persuasive Than Incentivized Human Persuaders
- Title(参考訳): 大規模言語モデルは、インセンティブのある人間の説得者よりも説得力が高い
- Authors: Philipp Schoenegger, Francesco Salvi, Jiacheng Liu, Xiaoli Nan, Ramit Debnath, Barbara Fasolo, Evelina Leivada, Gabriel Recchia, Fritz Günther, Ali Zarifhonarvar, Joe Kwon, Zahoor Ul Islam, Marco Dehnert, Daryl Y. H. Lee, Madeline G. Reinecke, David G. Kamper, Mert Kobaş, Adam Sandford, Jonas Kgomo, Luke Hewitt, Shreya Kapoor, Kerem Oktar, Eyup Engin Kucuk, Bo Feng, Cameron R. Jones, Izzy Gainsburg, Sebastian Olschewski, Nora Heinzelmann, Francisco Cruz, Ben M. Tappin, Tao Ma, Peter S. Park, Rayan Onyonka, Arthur Hjorth, Peter Slattery, Qingcheng Zeng, Lennart Finke, Igor Grossmann, Alessandro Salatiello, Ezra Karger,
- Abstract要約: 我々は,フロンティア大言語モデル(LLM)の説得能力と,オンラインクイズ設定におけるインセンティブ付き人間説得者との比較を行った。
LLMの説得者は、インセンティブを得た人間の説得者よりも、方向性の説得の試みへのコンプライアンスを著しく向上させた。
以上の結果から、AIの説得能力は、パフォーマンスに結びついたリアルタイムボーナスを持つ人間の能力を上回ることが示唆された。
- 参考スコア(独自算出の注目度): 32.72764895955829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We directly compare the persuasion capabilities of a frontier large language model (LLM; Claude Sonnet 3.5) against incentivized human persuaders in an interactive, real-time conversational quiz setting. In this preregistered, large-scale incentivized experiment, participants (quiz takers) completed an online quiz where persuaders (either humans or LLMs) attempted to persuade quiz takers toward correct or incorrect answers. We find that LLM persuaders achieved significantly higher compliance with their directional persuasion attempts than incentivized human persuaders, demonstrating superior persuasive capabilities in both truthful (toward correct answers) and deceptive (toward incorrect answers) contexts. We also find that LLM persuaders significantly increased quiz takers' accuracy, leading to higher earnings, when steering quiz takers toward correct answers, and significantly decreased their accuracy, leading to lower earnings, when steering them toward incorrect answers. Overall, our findings suggest that AI's persuasion capabilities already exceed those of humans that have real-money bonuses tied to performance. Our findings of increasingly capable AI persuaders thus underscore the urgency of emerging alignment and governance frameworks.
- Abstract(参考訳): 対話型対話型クイズ設定において,フロンティア大言語モデル(LLM; Claude Sonnet 3.5)のインセンティブ付き人間説得者に対する説得力を直接比較する。
この事前登録された大規模なインセンティブ付き実験では、参加者(クイズテイカー)がオンラインクイズを完了し、クイズテイカー(人間かLLM)がクイズテイカーに正しい答えや誤った答えを説得しようとした。
その結果, LLM の説得者は, インセンティブ付きヒトの説得者よりも, 真理(toward correct answer) と偽(toward wrong answer) の両文脈において, より優れた説得能力を示した。
また, LLM はクイズテイカーの精度を有意に向上させ, クイズテイカーを正しい回答に向ける場合の収益率を向上させるとともに, その精度を著しく低下させ, 間違った回答に向ける場合の収益率を低下させることがわかった。
全体的に見れば、AIの説得能力は、パフォーマンスに結びついたリアルマネーボーナスを持つ人間の能力を上回ることが示唆されている。
ますます有能なAI説得者の発見は、新たなアライメントとガバナンスフレームワークの緊急性を強調します。
関連論文リスト
- Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - Persuade Me if You Can: A Framework for Evaluating Persuasion Effectiveness and Susceptibility Among Large Language Models [9.402740034754455]
大きな言語モデル(LLM)は、人間レベルの説得と競合する説得力を示す。
LLMの説得への感受性は、倫理的原則との整合性に関する懸念を提起する。
マルチエージェントインタラクションによる説得評価フレームワークPersuade Me If You Can (PMIYC)を紹介した。
論文 参考訳(メタデータ) (2025-03-03T18:53:21Z) - Persuasion Should be Double-Blind: A Multi-Domain Dialogue Dataset With Faithfulness Based on Causal Theory of Mind [21.022976907694265]
最近の説得的対話データセットは、実世界の対人インタラクションと一致しないことが多い。
ToMMAは、心の因果理論によって導かれる対話生成のための新しいマルチエージェントフレームワークである。
マルチドメイン・マルチターン・パーサッシブ・ダイアログ・データセットであるCTOMPersuを提案する。
論文 参考訳(メタデータ) (2025-02-28T18:28:16Z) - Mind What You Ask For: Emotional and Rational Faces of Persuasion by Large Language Models [0.0]
大規模言語モデル(LLM)は,回答の価値を説得する上で,ますます効果的になっています。
本研究は,12の異なる言語モデルで使用される反応の心理言語学的特徴について検討した。
LLMによる大量誤報のリスクを軽減できるかどうかを問う。
論文 参考訳(メタデータ) (2025-02-13T15:15:53Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Zero-shot Persuasive Chatbots with LLM-Generated Strategies and Information Retrieval [7.925754291635035]
説得は、健康介入から社会的善の促進まで幅広い応用において重要な役割を担っている。
社会的善のために責任を負うような説得力のあるチャットボットは、肯定的な個人的および社会的変化の実現要因となる。
本稿では,多言語モデル(LLM)に基づくゼロショットチャットボットPersuaBotを提案する。
シミュレーションおよび人的会話実験により、ゼロショットアプローチは従来の作業よりも説得力があり、最先端の知識指向チャットボットを超越した事実的精度を実現していることが示された。
論文 参考訳(メタデータ) (2024-07-04T02:28:21Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。