論文の概要: Generative Propaganda
- arxiv url: http://arxiv.org/abs/2509.19147v1
- Date: Tue, 23 Sep 2025 15:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.925035
- Title: Generative Propaganda
- Title(参考訳): 生成プロパガンダ
- Authors: Madeleine I. G. Daepp, Alejandro Cuevas, Robert Osazuwa Ness, Vickie Yu-Ping Wang, Bharat Kumar Nayak, Dibyendu Mishra, Ti-Chung Cheng, Shaily Desai, Joyojeet Pal,
- Abstract要約: ジェネレーティブ・プロパガンダ(Generative Proaganda)とは、ジェネレーティブ・人工知能を用いて世論を形成すること。
ディープフェイク(deepfakes)という用語は、被告の誤用に対する期待を形作る際に、非常に大きな反抗力を行使する。
騙しはAIのメインドライバーでもメインインパクトベクターでもない。
- 参考スコア(独自算出の注目度): 36.28140423485487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative propaganda is the use of generative artificial intelligence (AI) to shape public opinion. To characterize its use in real-world settings, we conducted interviews with defenders (e.g., factcheckers, journalists, officials) in Taiwan and creators (e.g., influencers, political consultants, advertisers) as well as defenders in India, centering two places characterized by high levels of online propaganda. The term "deepfakes", we find, exerts outsized discursive power in shaping defenders' expectations of misuse and, in turn, the interventions that are prioritized. To better characterize the space of generative propaganda, we develop a taxonomy that distinguishes between obvious versus hidden and promotional versus derogatory use. Deception was neither the main driver nor the main impact vector of AI's use; instead, Indian creators sought to persuade rather than to deceive, often making AI's use obvious in order to reduce legal and reputational risks, while Taiwan's defenders saw deception as a subset of broader efforts to distort the prevalence of strategic narratives online. AI was useful and used, however, in producing efficiency gains in communicating across languages and modes, and in evading human and algorithmic detection. Security researchers should reconsider threat models to clearly differentiate deepfakes from promotional and obvious uses, to complement and bolster the social factors that constrain misuse by internal actors, and to counter efficiency gains globally.
- Abstract(参考訳): 生成的プロパガンダ(Generative Proaganda)とは、生成的人工知能(AI)を用いて世論を形成すること。
実世界の環境での利用を特徴付けるため、台湾の被告人(ファクトチェッカー、ジャーナリスト、役人など)とクリエーター(インフルエンサー、政治コンサルタント、広告主など)およびインドにおける被告人(インフルエンサー、政治コンサルタント、広告主など)にインタビューを行い、高いレベルのオンラインプロパガンダを特徴とする2つの場所を中心にした。
ディープフェイク(deepfakes)という用語は、被告の誤用に対する期待を形作り、結果的に優先される介入を形作る際に、非常に大きな反響的な力を発揮する。
ジェネレーティブ・プロパガンダの空間をよりよく特徴付けるために,明らか・隠蔽・宣伝・軽蔑的利用を区別する分類法を開発した。
インド人のクリエーターは、しばしば、法的および評判のリスクを減らすためにAIの使用を明白にする一方で、台湾の被告は、オンラインでの戦略的な物語の流行を歪めるためのより広範な努力のサブセットとして、騙しを考えている。
しかし、AIは言語やモード間のコミュニケーションにおける効率向上や、人間やアルゴリズムによる検出の回避に役立ちました。
セキュリティ研究者は、脅威モデルを再考して、ディープフェイクと宣伝的および明白な使用を明確に区別し、内部アクターの誤用を抑える社会的要因を補完し、強化し、世界中の効率向上に対抗する必要がある。
関連論文リスト
- Can Media Act as a Soft Regulator of Safe AI Development? A Game Theoretical Analysis [57.68073583427415]
我々は、メディアの報道がAIクリエイターを安全な製品の生産に駆り立てる可能性があるかどうかを調査する。
われわれの結果は、メディアがクリエイターとユーザーとの協力を育むことができることは明らかだが、必ずしもそうではない。
大衆の認識を形作り、デベロッパーの責任を負うことによって、メディアは強力なソフトレギュレーターとして出現する。
論文 参考訳(メタデータ) (2025-09-02T12:13:34Z) - PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference [11.323961700172175]
本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
論文 参考訳(メタデータ) (2024-06-04T00:26:12Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Analyzing the Strategy of Propaganda using Inverse Reinforcement
Learning: Evidence from the 2022 Russian Invasion of Ukraine [21.563820572163337]
2022年のロシアによるウクライナ侵攻には、ソーシャルメディア上での大規模なプロパガンダキャンペーンが伴っていた。
ここでは,Twitterコミュニティの戦略を逆強化学習手法を用いて分析する。
ボットは、主に侵略的メッセージに反応し、反対者を示すメッセージは、主に人間からの反応を誘発する。
論文 参考訳(メタデータ) (2023-07-24T13:35:18Z) - The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency [0.0]
会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
会話エージェントは 近い将来 配備される可能性が高い 標的となる影響目標を 追求するように設計されている
AI操作問題(AI Manipulation Problem)と呼ばれることもあるが、消費者が捕食的AIエージェントとのリアルタイム対話を無意識に行うというリスクが表面化している。
論文 参考訳(メタデータ) (2023-06-19T04:09:16Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。