論文の概要: How to Stop Playing Whack-a-Mole: Mapping the Ecosystem of Technologies Facilitating AI-Generated Non-Consensual Intimate Images
- arxiv url: http://arxiv.org/abs/2602.04759v1
- Date: Wed, 04 Feb 2026 16:58:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.643748
- Title: How to Stop Playing Whack-a-Mole: Mapping the Ecosystem of Technologies Facilitating AI-Generated Non-Consensual Intimate Images
- Title(参考訳): Whack-a-Moleのプレイを止める方法:AI生成した非合意的近親画像を実現する技術エコシステムのマッピング
- Authors: Michelle L. Ding, Harini Suresh, Suresh Venkatasubramanian,
- Abstract要約: AIG-NCIIはイメージベースの性的虐待の一種で、女性や少女に不当に害を与える。
AIG-NCIIに対処するためには、産業、政策、アカデミア、市民社会全体にわたる賞賛すべき努力のパッチワークがある。
AIG-NCIIの11のカテゴリを地図化して分類する技術エコシステムとして,我々は最初の包括的AIG-NCII技術エコシステムに貢献する。
- 参考スコア(独自算出の注目度): 2.9855784955026805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The last decade has witnessed a rapid advancement of generative AI technology that significantly scaled the accessibility of AI-generated non-consensual intimate images (AIG-NCII), a form of image-based sexual abuse that disproportionately harms women and girls. There is a patchwork of commendable efforts across industry, policy, academia, and civil society to address AIG-NCII. However, these efforts lack a shared, consistent mental model that situates the technologies they target within the context of a large, interconnected, and ever-evolving technological ecosystem. As a result, interventions remain siloed and are difficult to evaluate and compare, leading to a reactive cycle of whack-a-mole. We contribute the first comprehensive AIG-NCII technological ecosystem that maps and taxonomizes 11 categories of technologies facilitating the creation, distribution, proliferation and discovery, infrastructural support, and monetization of AIG-NCII. First, we build and visualize the ecosystem through a synthesis of over a hundred primary sources from researchers, journalists, advocates, policymakers, and technologists. Next, we demonstrate how stakeholders can use the ecosystem as a tool to 1) understand new incidents of harm via a case study of Grok and 2) evaluate existing interventions via three more case studies. We conclude with three actionable recommendations, namely that stakeholders should 1) use the ecosystem to map out state, federal, and international laws to produce a clearer policy landscape, 2) collectively develop a database that dynamically tracks the 11 technologies in the ecosystem to better evaluate interventions, and 3) adopt a relational approach to researching AIG-NCII to better understand how the ecosystem technologies interact.
- Abstract(参考訳): この10年で、AIが生成する非合意的親密な画像(AIG-NCII)のアクセシビリティを大幅に拡大する生成AI技術の急速な進歩を目の当たりにした。
AIG-NCIIに対処するためには、産業、政策、アカデミア、市民社会全体にわたる賞賛すべき努力のパッチワークがある。
しかしながら、これらの取り組みには、大規模で相互に連携し、進化し続ける技術エコシステムのコンテキスト内に、彼らがターゲットとするテクノロジを包含する、共有的で一貫したメンタルモデルが欠如している。
その結果、介入はサイロ化され、評価と比較が困難であり、ワック・ア・モールの反応サイクルにつながる。
我々は、AIG-NCIIの創出、流通、増殖、発見、インフラ支援、収益化を促進する技術11のカテゴリを地図化・分類する最初の総合的なAIG-NCII技術エコシステムに貢献する。
まず、研究者、ジャーナリスト、擁護者、政策立案者、技術者から100以上の主要な情報源を合成してエコシステムを構築し、可視化する。
次に、ステークホルダーがどのようにエコシステムをツールとして使えるかを示す。
1)Grokのケーススタディおよびケーススタディによる新たな害事件の理解
2)3つのケーススタディを通じて既存の介入を評価した。
私たちは3つの行動可能なレコメンデーション、すなわち利害関係者がすべきことを結論付けます。
1) 生態系を利用して、国家、連邦、国際法をマッピングし、より明確な政策の展望を創出する。
2) 介入をよりよく評価するために、エコシステム内の11の技術を動的に追跡するデータベースをまとめて開発し、
3)AIG-NCIIの研究にリレーショナルアプローチを採用し,生態系技術がどのように相互作用するかをよりよく理解する。
関連論文リスト
- Information Access of the Oppressed: A Problem-Posing Framework for Envisioning Emancipatory Information Access Platforms [5.801539233803859]
オンライン情報アクセスプラットフォームは、権威的な捕獲のターゲットです。
この問題は、パウロ・フレイアの解放教育理論のレンズを通して探求する。
論文 参考訳(メタデータ) (2026-01-14T16:15:26Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Responsible Data Stewardship: Generative AI and the Digital Waste Problem [0.0]
生成AIシステムは、テキスト、画像、オーディオ、ビデオモダリティにまたがる、前例のない合成データの生成レベルを可能にする。
デジタルムダ(Digital waste)とは、特定の目的(あるいは即時)を果たすことなく、リソースを消費するデータをいう。
本稿では,デジタル廃棄物を(生産的な)AI開発における倫理的命令として導入し,環境の持続可能性を責任あるイノベーションの核として位置づける。
論文 参考訳(メタデータ) (2025-05-27T20:07:22Z) - Reality Check: A New Evaluation Ecosystem Is Necessary to Understand AI's Real World Effects [3.1402583853710433]
論文は、AIの間接的および二次的効果を測定するには、シリコで実施される静的な単一ターンアプローチを超えて拡張する必要がある、と論じている。
我々は、文脈認識を容易にし、下流の解釈とAIの二次効果に関する意思決定を可能にするデータと方法の必要性について説明する。
論文 参考訳(メタデータ) (2025-05-24T22:35:32Z) - Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences (October 2025 -- Version 2) [49.142289900583705]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - Data Ecofeminism [0.0]
ジェネレーティブ・人工知能(GenAI)は環境に大きな影響を与えている。
この論文は、GenAIイノベーションレースの緊急再評価を求めている。
論文 参考訳(メタデータ) (2025-02-16T11:47:50Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - A Survey on ChatGPT: AI-Generated Contents, Challenges, and Solutions [19.50785795365068]
AIGCは、生成可能な大規模なAIアルゴリズムを使用して、人間が高速で低コストで、大規模で高品質で、人間に似たコンテンツを作成するのを支援する。
本稿では,作業原則,セキュリティとプライバシの脅威,最先端のソリューション,AIGCパラダイムの今後の課題について,詳細な調査を行う。
論文 参考訳(メタデータ) (2023-05-25T15:09:11Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。