論文の概要: Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban
- arxiv url: http://arxiv.org/abs/2408.12613v1
- Date: Thu, 8 Aug 2024 12:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-01 17:12:14.446613
- Title: Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban
- Title(参考訳): 選挙における人工知能の認知的利用はAI禁止を支持している
- Authors: Andreas Jungherr, Adrian Rauchfleisch, Alexander Wuttke,
- Abstract要約: 本稿では,AIが選挙に与える影響を評価する枠組みを提案する。
我々は、AI対応のキャンペーン利用を、キャンペーンオペレーション、投票者アウトリーチ、詐欺の3つのカテゴリに分類する。
我々は,事前登録された代表者による調査から,最初の体系的な証拠を提供する。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: All over the world, political parties, politicians, and campaigns explore how Artificial Intelligence (AI) can help them win elections. However, the effects of these activities are unknown. We propose a framework for assessing AI's impact on elections by considering its application in various campaigning tasks. The electoral uses of AI vary widely, carrying different levels of concern and need for regulatory oversight. To account for this diversity, we group AI-enabled campaigning uses into three categories -- campaign operations, voter outreach, and deception. Using this framework, we provide the first systematic evidence from a preregistered representative survey and two preregistered experiments (n=7,635) on how Americans think about AI in elections and the effects of specific campaigning choices. We provide three significant findings. 1) the public distinguishes between different AI uses in elections, seeing AI uses predominantly negative but objecting most strongly to deceptive uses; 2) deceptive AI practices can have adverse effects on relevant attitudes and strengthen public support for stopping AI development; 3) Although deceptive electoral uses of AI are intensely disliked, they do not result in substantial favorability penalties for the parties involved. There is a misalignment of incentives for deceptive practices and their externalities. We cannot count on public opinion to provide strong enough incentives for parties to forgo tactical advantages from AI-enabled deception. There is a need for regulatory oversight and systematic outside monitoring of electoral uses of AI. Still, regulators should account for the diversity of AI uses and not completely disincentivize their electoral use.
- Abstract(参考訳): 世界中の政党、政治家、キャンペーンは人工知能(AI)が選挙に勝つ方法を探っている。
しかし、これらの活動の影響は不明である。
本稿では,AIが選挙に与える影響を評価するためのフレームワークを提案する。
AIの選挙的利用は様々であり、さまざまなレベルの懸念と規制監督の必要性がある。
この多様性を説明するために、私たちはAI対応のキャンペーン利用を、キャンペーンオペレーション、投票者アウトリーチ、詐欺の3つのカテゴリにグループ化します。
この枠組みを用いて、米国人が選挙におけるAIについてどう考えるか、特定のキャンペーン選択の影響について、事前登録された代表調査と2つの事前登録された実験から、最初の体系的な証拠を提供する。
有意な発見は3つある。
1) 公民は,選挙における異なるAIの使用を区別し,AIが主に否定的だが,最も詐欺的使用に強く反対するのを見る。
2 AI実践は、関連する態度に悪影響を及ぼし、AI開発を止めるための公的支援を強化することができる。
3) 疑わしいAIの選挙的利用は激しく嫌われているが, 当事者に対する実質的な優遇罰にはならない。
詐欺行為とその外部性に対するインセンティブの誤った調整がある。
AIによる騙しから戦術上の優位性を防げるほど強いインセンティブを、世論にあてはめることはできない。
規制の監視と、AIの選挙的利用の体系的な外部監視の必要性がある。
それでも規制当局は、AIの使用の多様性を考慮に入れるべきであり、選挙人による使用を完全に非インセンティブにすべきではない。
関連論文リスト
- How will advanced AI systems impact democracy? [16.944248678780614]
生成的人工知能が民主的プロセスに与える影響について論じる。
我々は、AIが選挙のような民主的なメカニズムを不安定化または支援するためにどのように使われるか尋ねる。
最後に、AIが民主主義の原則を強化するか弱めるかについて議論する。
論文 参考訳(メタデータ) (2024-08-27T12:05:59Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI and Core Electoral Processes: Mapping the Horizons [3.420467786581458]
我々は,AI活用の可能性を秘めた,中核的な選挙プロセスにおける5つの代表的な道について検討する。
これら5つの道は、有権者リストの維持、投票ブースの位置の決定、投票ブース保護プロセス、投票者認証、選挙のビデオ監視である。
論文 参考訳(メタデータ) (2023-02-07T22:06:24Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。