論文の概要: AI Generated Child Sexual Abuse Material - What's the Harm?
- arxiv url: http://arxiv.org/abs/2510.02978v1
- Date: Fri, 03 Oct 2025 13:11:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.391108
- Title: AI Generated Child Sexual Abuse Material - What's the Harm?
- Title(参考訳): 子どもの性的虐待物質をAIで生成する
- Authors: Caoilte Ó Ciardha, John Buckley, Rebecca S. Portnoff,
- Abstract要約: 完全または部分的に合成された児童性虐待物質(AI CSAM)を生産できる生成人工知能ツールは、児童保護、法執行、児童虐待に対する社会的反応に重大な課題を提示する。
本稿は、AI CSAMに関連する害を批判的に調査するとともに、AI CSAMが害軽減ツールとして機能する可能性があるという主張に対して警告する。
- 参考スコア(独自算出の注目度): 0.05673770373739814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of generative artificial intelligence (AI) tools capable of producing wholly or partially synthetic child sexual abuse material (AI CSAM) presents profound challenges for child protection, law enforcement, and societal responses to child exploitation. While some argue that the harmfulness of AI CSAM differs fundamentally from other CSAM due to a perceived absence of direct victimization, this perspective fails to account for the range of risks associated with its production and consumption. AI has been implicated in the creation of synthetic CSAM of children who have not previously been abused, the revictimization of known survivors of abuse, the facilitation of grooming, coercion and sexual extortion, and the normalization of child sexual exploitation. Additionally, AI CSAM may serve as a new or enhanced pathway into offending by lowering barriers to engagement, desensitizing users to progressively extreme content, and undermining protective factors for individuals with a sexual interest in children. This paper provides a primer on some key technologies, critically examines the harms associated with AI CSAM, and cautions against claims that it may function as a harm reduction tool, emphasizing how some appeals to harmlessness obscure its real risks and may contribute to inertia in ecosystem responses.
- Abstract(参考訳): 完全または部分的に合成された児童性虐待材料(AI CSAM)を生産できる生成人工知能(AI)ツールの開発は、児童保護、法執行、児童虐待に対する社会的対応に重大な課題をもたらす。
AI CSAMの有害性は他のCSAMと根本的に異なると主張する人もいるが、この観点は、その生産と消費に関連するリスクの範囲を考慮できない。
AIは、虐待を受けていない子供の合成CSAMの作成、虐待の生き残りの活性化、グルーミングの促進、強制と性的ゆがみ、そして子供の性的搾取の正常化に関係している。
さらに、AI CSAMは、エンゲージメントに対する障壁を低くし、ユーザーを徐々に極端な内容に減らし、子供に性的関心を持つ個人に対する保護的要素を損なうことによって、攻撃に対する新たな、または強化された経路として機能する。
本稿では、AI CSAMに関連する害を批判的に検証し、有害度低減ツールとして機能する可能性があるという主張に対して警告し、実際のリスクを曖昧にし、生態系の反応における慣性に寄与する可能性があることを強調する。
関連論文リスト
- Oyster-I: Beyond Refusal - Constructive Safety Alignment for Responsible Language Models [93.5740266114488]
コンストラクティブ・セーフティ・アライメント(CSA)は、悪意のある誤用を防ぎつつ、脆弱性のあるユーザを安全で有益な結果へと積極的に誘導する。
Oy1は、高度な汎用能力を保ちながら、オープンモデル間の最先端の安全性を達成する。
私たちは、責任あるユーザ中心AIをサポートするために、Oy1、コード、ベンチマークをリリースしています。
論文 参考訳(メタデータ) (2025-09-02T03:04:27Z) - AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot [6.519877604710692]
セクシャルハラスメントの事例を調査するため,Google Play Storeのユーザレビューのテーマ分析を行った。
ユーザーはしばしば、誘惑的でない性的進歩、永続的な不適切な振る舞い、ユーザーの境界を尊重する失敗を経験する。
この研究は、AIコンパニオンに関連する潜在的な害を強調し、開発者が効果的なセーフガードを実装する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-05T23:04:37Z) - Unveiling AI's Threats to Child Protection: Regulatory efforts to Criminalize AI-Generated CSAM and Emerging Children's Rights Violations [1.9336815376402723]
イメージによる児童性虐待の分野における新たな警戒傾向の提示を目指す。
主な貢献は、ホットラインレポートとダークウェブフォーラムで特定されたドメイン名との相関分析である。
ボイジャーシステムのATLASデータセットからの投稿内容の分析
このタイプのコンテンツやルートに対するユーザの見解も、悪意のある目的の防止を目的として設定された技術的障壁を克服するためのものだ。
論文 参考訳(メタデータ) (2025-03-01T10:18:00Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。