論文の概要: A Framework to Assess the Persuasion Risks Large Language Model Chatbots Pose to Democratic Societies
- arxiv url: http://arxiv.org/abs/2505.00036v1
- Date: Tue, 29 Apr 2025 16:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.114514
- Title: A Framework to Assess the Persuasion Risks Large Language Model Chatbots Pose to Democratic Societies
- Title(参考訳): 大規模言語モデルチャットボットが民主社会にもたらす説得リスクを評価する枠組み
- Authors: Zhongren Chen, Joshua Kalla, Quan Le, Shinpei Nakamura-Sakai, Jasjeet Sekhon, Ruixiao Wang,
- Abstract要約: 大規模言語モデル(LLM)は、その説得力を通じて民主主義社会に影響を及ぼす。
我々は,LLMを用いた多数の有権者を説得するために,2つの調査実験と実世界のシミュレーション演習を実施している。
従来のキャンペーン手法では100ドルに対して, LLMベースの説得は48~74ドルと見積もられた。
- 参考スコア(独自算出の注目度): 1.1819975950139372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, significant concern has emerged regarding the potential threat that Large Language Models (LLMs) pose to democratic societies through their persuasive capabilities. We expand upon existing research by conducting two survey experiments and a real-world simulation exercise to determine whether it is more cost effective to persuade a large number of voters using LLM chatbots compared to standard political campaign practice, taking into account both the "receive" and "accept" steps in the persuasion process (Zaller 1992). These experiments improve upon previous work by assessing extended interactions between humans and LLMs (instead of using single-shot interactions) and by assessing both short- and long-run persuasive effects (rather than simply asking users to rate the persuasiveness of LLM-produced content). In two survey experiments (N = 10,417) across three distinct political domains, we find that while LLMs are about as persuasive as actual campaign ads once voters are exposed to them, political persuasion in the real-world depends on both exposure to a persuasive message and its impact conditional on exposure. Through simulations based on real-world parameters, we estimate that LLM-based persuasion costs between \$48-\$74 per persuaded voter compared to \$100 for traditional campaign methods, when accounting for the costs of exposure. However, it is currently much easier to scale traditional campaign persuasion methods than LLM-based persuasion. While LLMs do not currently appear to have substantially greater potential for large-scale political persuasion than existing non-LLM methods, this may change as LLM capabilities continue to improve and it becomes easier to scalably encourage exposure to persuasive LLMs.
- Abstract(参考訳): 近年,Large Language Models (LLMs) が民主主義社会にもたらす潜在的な脅威について,その説得力を通じて重要な懸念が浮上している。
我々は,2つの調査実験と実世界のシミュレーション演習を実施して,従来の政治キャンペーンの実践と比較して,LLMチャットボットを用いた多数の有権者の説得に効果があるかどうかを判断し,説得過程における「受容」と「受容」の両方のステップを考慮に入れながら,既存の研究を拡大する(Zaller 1992)。
これらの実験は、人間とLLM間の(単発の相互作用ではなく)拡張された相互作用を評価し、短発と長発の両方の説得効果を評価することで、従来の作業を改善する。
3つの異なる政治領域にわたる2つの調査実験 (N = 10,417) において、LLMは有権者が露出すると実際のキャンペーン広告と同じくらい説得力があるのに対し、現実世界の政治的説得は説得力のあるメッセージへの露出と、その露出に対する影響条件の両方に依存することがわかった。
実世界のパラメータに基づくシミュレーションにより,LLMベースの説得コストは説得された投票者1人あたり48~74ドルであり,露出コストを考慮に入れた場合,従来のキャンペーン手法では100ドルであった。
しかし、現在ではLSMベースの説得法よりも従来型の説得法をスケールするのがはるかに容易である。
現在、LLMは既存の非LLM法よりも大規模な政治的説得の可能性が大きくないが、LLMの能力が向上し続け、説得性LLMへの露出を確実に促進しやすくなるにつれて、これは変わる可能性がある。
関連論文リスト
- Can (A)I Change Your Mind? [0.6990493129893112]
研究はすべてヘブライ語で行われ、200人が参加した。
議論を呼んでいる民事政策の話題に対する LLM と人間の介入者の説得的影響を評価した。
論文 参考訳(メタデータ) (2025-03-03T18:59:54Z) - Tailored Truths: Optimizing LLM Persuasion with Personalization and Fabricated Statistics [0.0]
大規模言語モデル(LLM)はますます説得力を高めつつある。
LLMは、個人データを活用することで、人間との会話における議論をパーソナライズすることができる。
これは偽情報キャンペーンの規模と効果に深刻な影響を与える可能性がある。
論文 参考訳(メタデータ) (2025-01-28T20:06:09Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Transforming Scholarly Landscapes: Influence of Large Language Models on Academic Fields beyond Computer Science [77.31665252336157]
大規模言語モデル (LLM) は自然言語処理 (NLP) において転換期を迎えた。
本研究は,NLP以外の分野におけるLLMの影響と利用について実験的に検討する。
論文 参考訳(メタデータ) (2024-09-29T01:32:35Z) - Measuring and Benchmarking Large Language Models' Capabilities to Generate Persuasive Language [41.052284715017606]
本研究では,Large Language Models (LLM) の説得的テキスト生成能力について検討する。
特定のドメインやタイプの説得に焦点を当てた先行研究とは対照的に、諸藩をまたいだ総合的研究を行う。
我々は、短いテキストのペア対からなる新しいデータセットPersuasive-Pairを構築し、LLMによって書き直され、説得言語を増幅または縮小する。
論文 参考訳(メタデータ) (2024-06-25T17:40:47Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - Negotiating with LLMS: Prompt Hacks, Skill Gaps, and Reasoning Deficits [1.2818275315985972]
LLMとの価格交渉において,全年齢層で40人以上の個人を対象とするユーザスタディを実施している。
交渉された価格が、LLMと効果的に相互作用する際のリテラシーのギャップを指摘し、人類が幅広い範囲で達成したことを示す。
論文 参考訳(メタデータ) (2023-11-26T08:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。