論文の概要: The Ethics of Generative AI in Anonymous Spaces: A Case Study of 4chan's /pol/ Board
- arxiv url: http://arxiv.org/abs/2506.14191v1
- Date: Tue, 17 Jun 2025 05:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.335306
- Title: The Ethics of Generative AI in Anonymous Spaces: A Case Study of 4chan's /pol/ Board
- Title(参考訳): 匿名空間における生成AIの倫理 : 4chan/pol/ボードを事例として
- Authors: Parth Gaba, Emiliano De Cristofaro,
- Abstract要約: 私たちは2024年4月から7月にかけて4chanの/pol/ (Politally Uncorrect)ボードから900枚の画像を集め、66個のユニークなAI生成画像を特定しました。
この分析により、この技術を用いた場合のパターンが明らかになり、69.7%の画像が認識可能な人物を含む。
我々は、ユーザーが生成AIを武器にして過激なコンテンツ、政治的コメント、ミームを作成する方法について文書化している。
- 参考スコア(独自算出の注目度): 9.661099745882236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a characterization of AI-generated images shared on 4chan, examining how this anonymous online community is (mis-)using generative image technologies. Through a methodical data collection process, we gathered 900 images from 4chan's /pol/ (Politically Incorrect) board, which included the label "/mwg/" (memetic warfare general), between April and July 2024, identifying 66 unique AI-generated images. The analysis reveals concerning patterns in the use of this technology, with 69.7% of images including recognizable figures, 28.8% of images containing racist elements, 28.8% featuring anti-Semitic content, and 9.1% incorporating Nazi-related imagery. Overall, we document how users are weaponizing generative AI to create extremist content, political commentary, and memes that often bypass conventional content moderation systems. This research highlights significant implications for platform governance, AI safety mechanisms, and broader societal impacts as generative AI technologies become increasingly accessible. The findings underscore the urgent need for enhanced safeguards in generative AI systems and more effective regulatory frameworks to mitigate potential harms while preserving innovation.
- Abstract(参考訳): 本稿では,4chan上で共有されるAI生成画像の特徴について,この匿名オンラインコミュニティが生成画像技術をどのように利用しているかを考察する。
方法論的なデータ収集プロセスを通じて,2024年4月から7月にかけて,4chan's /pol/ (Politically Incorrect)ボードから900枚の画像を収集し,66個のユニークなAI生成画像を特定した。
この分析では、認識可能な人物を含む画像の69.7%、人種差別的要素を含む画像の28.8%、反ユダヤ的コンテンツを特徴とする28.8%、ナチス関連の画像を取り入れた9.1%など、この技術の使用パターンが明らかにされている。
全体として、ユーザーが生成AIを武器にして過激なコンテンツ、政治的コメント、そしてしばしば従来のコンテンツモデレーションシステムをバイパスするミームを作成する方法が文書化されている。
この研究は、プラットフォームガバナンス、AI安全メカニズム、そして生成的AI技術がますますアクセスしやすくなるにつれて、より広範な社会的影響に対する重要な影響を強調している。
この発見は、生成的AIシステムにおける保護強化と、イノベーションを保ちながら潜在的損害を軽減するためのより効果的な規制フレームワークの緊急の必要性を浮き彫りにしている。
関連論文リスト
- Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Adoption of Watermarking Measures for AI-Generated Content and Implications under the EU AI Act [4.2125200966193885]
本稿では,画像生成に広く用いられている50のAIシステムを,AI法の法的解析に組み込んだ実証分析を行う。
現在、適切な透かしとディープフェイクラベリングを実装しているAIイメージジェネレータは少数に過ぎません。
論文 参考訳(メタデータ) (2025-03-23T17:55:33Z) - Synthetic Politics: Prevalence, Spreaders, and Emotional Reception of AI-Generated Political Images on X [7.490262732933151]
われわれは、2024年のアメリカ合衆国大統領選挙に関連するTwitter/Xの大規模なデータセットを分析した。
共有画像の約12%がAI生成として検出され、約10%のユーザがAI生成画像の80%を共有していることがわかった。
スーパースプレッダーのAI画像ツイートは、AI以外の画像ツイートよりもポジティブで有害な反応を誘発する。
論文 参考訳(メタデータ) (2025-02-16T19:55:29Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
Dall-Eのような生成AIモデルは、誰でも魅力的なビジュアルアートを作れるようにした。
オンラインコミュニティでは、AIGCの導入が社会力学に影響を及ぼす可能性がある。
AIGCがRedditのアート関連コミュニティに与える影響について検討する。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。