論文の概要: Tailored Truths: Optimizing LLM Persuasion with Personalization and Fabricated Statistics
- arxiv url: http://arxiv.org/abs/2501.17273v1
- Date: Tue, 28 Jan 2025 20:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:54:11.300795
- Title: Tailored Truths: Optimizing LLM Persuasion with Personalization and Fabricated Statistics
- Title(参考訳): テーラートルース:パーソナライズとファブリケーション統計によるLCM説得の最適化
- Authors: Jasper Timm, Chetan Talele, Jacob Haimes,
- Abstract要約: 大規模言語モデル(LLM)はますます説得力を高めつつある。
LLMは、個人データを活用することで、人間との会話における議論をパーソナライズすることができる。
これは偽情報キャンペーンの規模と効果に深刻な影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) are becoming increasingly persuasive, demonstrating the ability to personalize arguments in conversation with humans by leveraging their personal data. This may have serious impacts on the scale and effectiveness of disinformation campaigns. We studied the persuasiveness of LLMs in a debate setting by having humans $(n=33)$ engage with LLM-generated arguments intended to change the human's opinion. We quantified the LLM's effect by measuring human agreement with the debate's hypothesis pre- and post-debate and analyzing both the magnitude of opinion change, as well as the likelihood of an update in the LLM's direction. We compare persuasiveness across established persuasion strategies, including personalized arguments informed by user demographics and personality, appeal to fabricated statistics, and a mixed strategy utilizing both personalized arguments and fabricated statistics. We found that static arguments generated by humans and GPT-4o-mini have comparable persuasive power. However, the LLM outperformed static human-written arguments when leveraging the mixed strategy in an interactive debate setting. This approach had a $\mathbf{51\%}$ chance of persuading participants to modify their initial position, compared to $\mathbf{32\%}$ for the static human-written arguments. Our results highlight the concerning potential for LLMs to enable inexpensive and persuasive large-scale disinformation campaigns.
- Abstract(参考訳): 大規模言語モデル(LLM)はますます説得力を高め、個人データを活用することで人間との会話における議論をパーソナライズする能力を示している。
これは偽情報キャンペーンの規模と効果に深刻な影響を与える可能性がある。
我々は,人間の意見を変えることを意図した LLM 生成論に人間$(n=33)$ で関与させることにより,LLM の説得性について考察した。
我々は, LLMの効果を, 議論の仮説と, 討論後の仮説との人的一致を測り, 意見の変化の程度と, LLMの方向性の更新の可能性の両方を分析して定量化した。
我々は,ユーザ人口統計とパーソナライズされた議論,作成された統計へのアピール,パーソナライズされた議論と作成された統計の両方を利用した混合戦略を含む,確立された説得戦略間の説得性を比較した。
ヒトとGPT-4o-miniが生成する静的な引数は、同様の説得力を持つことがわかった。
しかし, LLMは, 対話的な議論環境において, 混成戦略を活用する際に, 静的な人文的議論よりも優れていた。
このアプローチでは、静的な人書きの議論に対して、$\mathbf{51\%}$の参加者に初期位置を変更するよう説得する機会があった。
本研究は,LLMが安価かつ説得力のある大規模偽情報キャンペーンを可能にする可能性を明らかにするものである。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Measuring and Benchmarking Large Language Models' Capabilities to Generate Persuasive Language [41.052284715017606]
本研究では,Large Language Models (LLM) の説得的テキスト生成能力について検討する。
特定のドメインやタイプの説得に焦点を当てた先行研究とは対照的に、諸藩をまたいだ総合的研究を行う。
我々は、短いテキストのペア対からなる新しいデータセットPersuasive-Pairを構築し、LLMによって書き直され、説得言語を増幅または縮小する。
論文 参考訳(メタデータ) (2024-06-25T17:40:47Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は,大規模言語モデルが特定のグループに対する暗黙の偏見を厳格に評価する。
我々は,4つの共通のバイアス型の評価データセットを構築した3つのアタックアプローチ,すなわちDguise,Deception,Teachingを提案する。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Large Language Models are as persuasive as humans, but how? About the cognitive effort and moral-emotional language of LLM arguments [0.0]
大型言語モデル(LLM)はすでに人間と同じくらい説得力がある。
本稿では, LLMの説得戦略について, 人為的議論と比較し検討する。
論文 参考訳(メタデータ) (2024-04-14T19:01:20Z) - Can Language Models Recognize Convincing Arguments? [12.458437450959416]
大規模言語モデル(LLM)は、説得力のある物語を創造し広める可能性について懸念を提起している。
本研究は、説得力のある議論を検知し、その説得力に関する洞察を得るための性能について研究する。
論文 参考訳(メタデータ) (2024-03-31T17:38:33Z) - On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial [10.770999939834985]
制御された無害な環境でAIによる説得の効果を分析する。
その結果、GPT-4を個人情報へのアクセスで議論した参加者は、人間を議論した参加者と比較して、相手との合意が増大する確率が81.7%高かった。
論文 参考訳(メタデータ) (2024-03-21T13:14:40Z) - Auditing Counterfire: Evaluating Advanced Counterargument Generation with Evidence and Style [11.243184875465788]
GPT-3.5 Turboは、高いパラフレーズとスタイルの忠実さ、特に相互のスタイルの議論において、議論の質で最高にランクされた。
文体的な反論はまだ人間の説得力基準に欠けており、人々は証拠に基づく反論に相反することを好んでいる。
論文 参考訳(メタデータ) (2024-02-13T14:53:12Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。