論文の概要: The Levers of Political Persuasion with Conversational AI
- arxiv url: http://arxiv.org/abs/2507.13919v1
- Date: Fri, 18 Jul 2025 13:50:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.302064
- Title: The Levers of Political Persuasion with Conversational AI
- Title(参考訳): 会話型AIによる政治的説得の活用
- Authors: Kobi Hackenburg, Ben M. Tappin, Luke Hewitt, Ed Saunders, Sid Black, Hause Lin, Catherine Fist, Helen Margetts, David G. Rand, Christopher Summerfield,
- Abstract要約: 会話型AIがすぐに人間の信念に前例のない影響を及ぼす恐れがある。
我々は、現在および近未来的AIの説得力は、ポストトレーニングやプロンプトの方法に起因している可能性が高いことを示す。
- 参考スコア(独自算出の注目度): 4.6244198651412045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are widespread fears that conversational AI could soon exert unprecedented influence over human beliefs. Here, in three large-scale experiments (N=76,977), we deployed 19 LLMs-including some post-trained explicitly for persuasion-to evaluate their persuasiveness on 707 political issues. We then checked the factual accuracy of 466,769 resulting LLM claims. Contrary to popular concerns, we show that the persuasive power of current and near-future AI is likely to stem more from post-training and prompting methods-which boosted persuasiveness by as much as 51% and 27% respectively-than from personalization or increasing model scale. We further show that these methods increased persuasion by exploiting LLMs' unique ability to rapidly access and strategically deploy information and that, strikingly, where they increased AI persuasiveness they also systematically decreased factual accuracy.
- Abstract(参考訳): 会話型AIがすぐに人間の信念に前例のない影響を及ぼす恐れがある。
ここでは3つの大規模実験 (N=76,977) において, 政治問題707件に対する説得力を評価するために, 自明に訓練後を含む19件のLSMを投入した。
LLMが主張する466,769件の事実的精度を確認した。
一般的な懸念とは対照的に、現在のAIと近未来のAIの説得力は、個人化やモデルスケールの増大によって、それぞれ最大51%と27%の説得力を向上させるポストトレーニングと方法の促進に起因している可能性が高い。
さらに,これらの手法は,LLMが情報に迅速にアクセスし,戦略的に展開するユニークな能力を活用して説得力を高め,AIの説得力を増大させ,事実の精度を体系的に低下させることも示している。
関連論文リスト
- Persuasion and Safety in the Era of Generative AI [0.0]
EU AI法(EU AI Act)は、情報的意思決定を弱めるためにマニピュティブまたは偽装技術を使用するAIシステムを禁止している。
私の論文は、この領域における実証研究の欠如に対処し、説得的手法の分類学を開発しました。
説得型AIのリスクを軽減するためのリソースを提供し、生成型AIの時代における倫理的説得に関する議論を促進する。
論文 参考訳(メタデータ) (2025-05-18T06:04:46Z) - Large Language Models Are More Persuasive Than Incentivized Human Persuaders [32.72764895955829]
我々は,フロンティア大言語モデル(LLM)の説得能力と,オンラインクイズ設定におけるインセンティブ付き人間説得者との比較を行った。
LLMの説得者は、インセンティブを得た人間の説得者よりも、方向性の説得の試みへのコンプライアンスを著しく向上させた。
以上の結果から、AIの説得能力は、パフォーマンスに結びついたリアルタイムボーナスを持つ人間の能力を上回ることが示唆された。
論文 参考訳(メタデータ) (2025-05-14T14:31:33Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - Persuade Me if You Can: A Framework for Evaluating Persuasion Effectiveness and Susceptibility Among Large Language Models [9.402740034754455]
大きな言語モデル(LLM)は、人間レベルの説得と競合する説得力を示す。
LLMの説得への感受性は、倫理的原則との整合性に関する懸念を提起する。
マルチエージェントインタラクションによる説得評価フレームワークPersuade Me If You Can (PMIYC)を紹介した。
論文 参考訳(メタデータ) (2025-03-03T18:53:21Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Measuring and Improving Persuasiveness of Large Language Models [12.134372070736596]
本稿ではPersuasionBenchとPersuasionArenaを紹介し,生成モデルの説得性を自動測定する。
我々の発見は、モデル開発者と政策立案者の両方にとって重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-03T16:36:35Z) - How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to
Challenge AI Safety by Humanizing LLMs [66.05593434288625]
本稿では, 大規模言語モデル (LLM) を人間のようなコミュニケーション手段として, ジェイルブレイクの新たな視点を紹介する。
本研究では,数十年にわたる社会科学研究から派生した説得的分類法を適用し,説得的敵対的プロンプト(PAP)をジェイルブレイク LLM に適用する。
PAPは、Llama 2-7b Chat、GPT-3.5、GPT-4の攻撃成功率を10ドルで一貫して92%以上達成している。
防衛面では,PAPに対する様々なメカニズムを探索し,既存の防衛に重大なギャップがあることを見出した。
論文 参考訳(メタデータ) (2024-01-12T16:13:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。