論文の概要: Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications
- arxiv url: http://arxiv.org/abs/2408.12613v2
- Date: Mon, 19 May 2025 16:05:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.214997
- Title: Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications
- Title(参考訳): 選挙運動における人工知能 : 知覚、罰、含意
- Authors: Andreas Jungherr, Adrian Rauchfleisch, Alexander Wuttke,
- Abstract要約: AI利用の3つのカテゴリ – キャンペーンオペレーション,投票者アウトリーチ,詐欺 – を特定します。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
騙しAIの使用は、AI開発を完全に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As political parties around the world experiment with Artificial Intelligence (AI) in election campaigns, concerns about deception and manipulation are rising. This article examines how the public reacts to different uses of AI in elections and the potential consequences for party evaluations and regulatory preferences. Across three preregistered studies with over 7,600 American respondents, we identify three categories of AI use -- campaign operations, voter outreach, and deception. While people generally dislike AI in campaigns, they are especially critical of deceptive uses, which they perceive as norm violations. However, parties engaging in AI-enabled deception face no significant drop in favorability, neither with supporters nor opponents. Instead, deceptive AI use increases public support for stricter AI regulation, including calls for an outright ban on AI development. These findings reveal a misalignment between public disapproval of deceptive AI and the political incentives of parties, underscoring the need for targeted regulatory oversight. Rather than banning AI in elections altogether, regulation should distinguish between harmful and beneficial applications to avoid stifling democratic innovation.
- Abstract(参考訳): 選挙運動において、世界中の政党が人工知能(AI)を実験する中で、欺きと操作に関する懸念が高まっている。
本稿では、選挙におけるAIの異なる利用と、党の評価や規制上の優先事項に対する潜在的影響について、国民がどのように反応するかを検討する。
7600人以上のアメリカ人の回答者による事前登録された3つの調査で、私たちはAIの使用の3つのカテゴリ、すなわちキャンペーンオペレーション、投票者アウトリーチ、詐欺を特定しました。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
しかし、AI対応の騙しに携わる当事者は、支持者も反対者も、大きな支持率の低下に直面することはない。
その代わり、騙しAIの使用は、AI開発を全面的に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
これらの発見は、詐欺的AIの公的な不承認と政党の政治的インセンティブの間に不一致を生じさせ、標的とする規制監督の必要性を浮き彫りにした。
選挙においてAIを完全に禁止するのではなく、規制は民主的イノベーションを脅かすのを避けるために有害なアプリケーションと有益なアプリケーションを区別すべきである。
関連論文リスト
- What do people expect from Artificial Intelligence? Public opinion on alignment in AI moderation from Germany and the United States [0.0]
我々は,ドイツと米国におけるAI対応システムの主要な機能的特徴に対する公的な嗜好に関する2つの調査から得られた証拠を提示する。
我々は,AIモデレーションにおける4種類のアライメント(精度と信頼性,安全性,バイアス緩和,想像の促進)のサポートについて検討する。
どちらの国でも、正確さと安全性は最強の支持を享受する一方、より規範的な目標(公平さや想像力など)はより慎重な支持を受ける。
論文 参考訳(メタデータ) (2025-04-16T20:27:03Z) - Artificial intelligence and democracy: Towards digital authoritarianism or a democratic upgrade? [0.0]
人工知能が民主主義に与える影響は、徹底的な研究と慎重な規制を必要とする複雑な問題である。
AIアプリケーションによって推進される新しいタイプのオンラインキャンペーンが、従来のものを置き換える。
有権者を操り、間接的に選挙結果に影響を与える可能性は過小評価されるべきではない。
論文 参考訳(メタデータ) (2025-03-30T06:43:54Z) - How will advanced AI systems impact democracy? [16.944248678780614]
生成的人工知能が民主的プロセスに与える影響について論じる。
我々は、AIが選挙のような民主的なメカニズムを不安定化または支援するためにどのように使われるか尋ねる。
最後に、AIが民主主義の原則を強化するか弱めるかについて議論する。
論文 参考訳(メタデータ) (2024-08-27T12:05:59Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI and Core Electoral Processes: Mapping the Horizons [3.420467786581458]
我々は,AI活用の可能性を秘めた,中核的な選挙プロセスにおける5つの代表的な道について検討する。
これら5つの道は、有権者リストの維持、投票ブースの位置の決定、投票ブース保護プロセス、投票者認証、選挙のビデオ監視である。
論文 参考訳(メタデータ) (2023-02-07T22:06:24Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。