論文の概要: The Ethics of Generative AI in Anonymous Spaces: A Case Study of 4chan's /pol/ Board
- arxiv url: http://arxiv.org/abs/2506.14191v1
- Date: Tue, 17 Jun 2025 05:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.335306
- Title: The Ethics of Generative AI in Anonymous Spaces: A Case Study of 4chan's /pol/ Board
- Title(参考訳): 匿名空間における生成AIの倫理 : 4chan/pol/ボードを事例として
- Authors: Parth Gaba, Emiliano De Cristofaro,
- Abstract要約: 私たちは2024年4月から7月にかけて4chanの/pol/ (Politally Uncorrect)ボードから900枚の画像を集め、66個のユニークなAI生成画像を特定しました。
この分析により、この技術を用いた場合のパターンが明らかになり、69.7%の画像が認識可能な人物を含む。
我々は、ユーザーが生成AIを武器にして過激なコンテンツ、政治的コメント、ミームを作成する方法について文書化している。
- 参考スコア(独自算出の注目度): 9.661099745882236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a characterization of AI-generated images shared on 4chan, examining how this anonymous online community is (mis-)using generative image technologies. Through a methodical data collection process, we gathered 900 images from 4chan's /pol/ (Politically Incorrect) board, which included the label "/mwg/" (memetic warfare general), between April and July 2024, identifying 66 unique AI-generated images. The analysis reveals concerning patterns in the use of this technology, with 69.7% of images including recognizable figures, 28.8% of images containing racist elements, 28.8% featuring anti-Semitic content, and 9.1% incorporating Nazi-related imagery. Overall, we document how users are weaponizing generative AI to create extremist content, political commentary, and memes that often bypass conventional content moderation systems. This research highlights significant implications for platform governance, AI safety mechanisms, and broader societal impacts as generative AI technologies become increasingly accessible. The findings underscore the urgent need for enhanced safeguards in generative AI systems and more effective regulatory frameworks to mitigate potential harms while preserving innovation.
- Abstract(参考訳): 本稿では,4chan上で共有されるAI生成画像の特徴について,この匿名オンラインコミュニティが生成画像技術をどのように利用しているかを考察する。
方法論的なデータ収集プロセスを通じて,2024年4月から7月にかけて,4chan's /pol/ (Politically Incorrect)ボードから900枚の画像を収集し,66個のユニークなAI生成画像を特定した。
この分析では、認識可能な人物を含む画像の69.7%、人種差別的要素を含む画像の28.8%、反ユダヤ的コンテンツを特徴とする28.8%、ナチス関連の画像を取り入れた9.1%など、この技術の使用パターンが明らかにされている。
全体として、ユーザーが生成AIを武器にして過激なコンテンツ、政治的コメント、そしてしばしば従来のコンテンツモデレーションシステムをバイパスするミームを作成する方法が文書化されている。
この研究は、プラットフォームガバナンス、AI安全メカニズム、そして生成的AI技術がますますアクセスしやすくなるにつれて、より広範な社会的影響に対する重要な影響を強調している。
この発見は、生成的AIシステムにおける保護強化と、イノベーションを保ちながら潜在的損害を軽減するためのより効果的な規制フレームワークの緊急の必要性を浮き彫りにしている。
関連論文リスト
- Could AI Trace and Explain the Origins of AI-Generated Images and Text? [53.11173194293537]
AI生成コンテンツは、現実の世界ではますます普及している。
敵は、大規模なマルチモーダルモデルを利用して、倫理的または法的基準に違反した画像を作成するかもしれない。
ペーパーレビュアーは、大きな言語モデルを誤用して、真の知的努力なしにレビューを生成する。
論文 参考訳(メタデータ) (2025-04-05T20:51:54Z) - Adoption of Watermarking Measures for AI-Generated Content and Implications under the EU AI Act [4.2125200966193885]
本稿では,画像生成に広く用いられている50のAIシステムを,AI法の法的解析に組み込んだ実証分析を行う。
現在、適切な透かしとディープフェイクラベリングを実装しているAIイメージジェネレータは少数に過ぎません。
論文 参考訳(メタデータ) (2025-03-23T17:55:33Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Synthetic Politics: Prevalence, Spreaders, and Emotional Reception of AI-Generated Political Images on X [7.490262732933151]
われわれは、2024年のアメリカ合衆国大統領選挙に関連するTwitter/Xの大規模なデータセットを分析した。
共有画像の約12%がAI生成として検出され、約10%のユーザがAI生成画像の80%を共有していることがわかった。
スーパースプレッダーのAI画像ツイートは、AI以外の画像ツイートよりもポジティブで有害な反応を誘発する。
論文 参考訳(メタデータ) (2025-02-16T19:55:29Z) - MiRAGeNews: Multimodal Realistic AI-Generated News Detection [45.067211436589126]
我々はAI生成フェイクニュースの拡散に対処するためのMiRAGeNewsデータセットを提案する。
私たちのデータセットは、人間に重大な課題をもたらします。
我々は、最先端のベースラインに対して+5.1%のF-1を向上するマルチモーダル検出器を訓練する。
論文 参考訳(メタデータ) (2024-10-11T17:58:02Z) - Examining the Prevalence and Dynamics of AI-Generated Media in Art Subreddits [13.343255875002459]
Dall-Eのような生成AIモデルは、誰でも魅力的なビジュアルアートを作れるようにした。
オンラインコミュニティでは、AIGCの導入が社会力学に影響を及ぼす可能性がある。
AIGCがRedditのアート関連コミュニティに与える影響について検討する。
論文 参考訳(メタデータ) (2024-10-09T17:41:13Z) - Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - AI-Generated Faces in the Real World: A Large-Scale Case Study of Twitter Profile Images [26.891299948581782]
われわれは,Twitter上でAI生成プロフィール画像の普及状況について,大規模な調査を行った。
約1500万枚のTwitterプロフィール写真を分析したところ、0.052%が人工的に生成され、プラットフォーム上での存在が確認された。
結果は、スパムや政治的増幅キャンペーンなど、いくつかの動機も明らかにしている。
論文 参考訳(メタデータ) (2024-04-22T14:57:17Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - PrivPAS: A real time Privacy-Preserving AI System and applied ethics [3.4485062225799936]
機密コンテンツを特定するためにPrivPAS(リアルタイムプライバシ保存AIシステム)を導入する。
提案した軽量アーキテクチャは、メモリフットプリントがわずか8.49MBであり、リソース制約されたデバイスで89.52%という高いmAPを実現する。
論文 参考訳(メタデータ) (2022-02-05T09:52:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。