論文の概要: Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference
- arxiv url: http://arxiv.org/abs/2406.01862v4
- Date: Wed, 30 Oct 2024 05:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:03.856516
- Title: Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference
- Title(参考訳): オンライン選挙干渉における生成人工知能の悪用景観の図表化
- Authors: Emilio Ferrara,
- Abstract要約: 本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
- 参考スコア(独自算出の注目度): 11.323961700172175
- License:
- Abstract: Generative Artificial Intelligence (GenAI) and Large Language Models (LLMs) pose significant risks, particularly in the realm of online election interference. This paper explores the nefarious applications of GenAI, highlighting their potential to disrupt democratic processes through deepfakes, botnets, targeted misinformation campaigns, and synthetic identities. By examining recent case studies and public incidents, we illustrate how malicious actors exploit these technologies to try influencing voter behavior, spread disinformation, and undermine public trust in electoral systems. The paper also discusses the societal implications of these threats, emphasizing the urgent need for robust mitigation strategies and international cooperation to safeguard democratic integrity.
- Abstract(参考訳): Generative Artificial Intelligence (GenAI) と Large Language Models (LLMs) は、特にオンライン選挙干渉の領域において大きなリスクをもたらす。
本稿では、GenAIの悪用を探求し、ディープフェイク、ボットネット、偽情報キャンペーン、合成IDを通じて民主的プロセスを破壊できる可能性を明らかにする。
近年のケーススタディや公的な事件を調べることで、悪意あるアクターがこれらの技術を悪用し、有権者の行動に影響を与え、偽情報を広め、選挙制度に対する公的な信頼を損なう様子を説明している。
また、これらの脅威の社会的含意についても論じ、民主的完全性を守るための堅牢な緩和戦略と国際協力の必要性を強調した。
関連論文リスト
- Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Digital Democracy in the Age of Artificial Intelligence [0.16385815610837165]
この章では、デジタル民主主義における人工知能(AI)の影響について論じる。
市民権、参加権、代表権、公共の領域の4つに焦点が当てられている。
論文 参考訳(メタデータ) (2024-11-26T10:20:53Z) - Cyber Threats to Canadian Federal Election: Emerging Threats, Assessment, and Mitigation Strategies [2.04903126350824]
近年の選挙における外国の干渉は、技術的および人間の脆弱性を悪用する敵の高度化を全世界的に強調している。
これらの脆弱性を軽減するために、脅威評価は、出現する脅威を特定し、インシデント対応能力を開発し、サイバー脅威に対する公衆の信頼とレジリエンスを構築するために不可欠である。
この研究は、誤情報、偽情報、不正情報(MDM)キャンペーン、重要なインフラと選挙支援システムへの攻撃、悪意あるアクターによるスパイの3つの主要な脅威を特定している。
論文 参考訳(メタデータ) (2024-10-07T23:40:40Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban [44.99833362998488]
本稿では,AIが選挙に与える影響を評価する枠組みを提案する。
我々は、AI対応のキャンペーン利用を、キャンペーンオペレーション、投票者アウトリーチ、詐欺の3つのカテゴリに分類する。
我々は,事前登録された代表者による調査から,最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - Mapping the individual, social, and biospheric impacts of Foundation Models [0.39843531413098965]
本稿では,基礎モデルと生成AIの社会的,政治的,環境的側面を説明するための重要な枠組みを提供する。
リスクと害の14のカテゴリを特定し、それらの個人的、社会的、および生物圏的影響に応じてそれらをマッピングする。
論文 参考訳(メタデータ) (2024-07-24T10:05:40Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。