論文の概要: Unveiling AI's Threats to Child Protection: Regulatory efforts to Criminalize AI-Generated CSAM and Emerging Children's Rights Violations
- arxiv url: http://arxiv.org/abs/2503.00433v1
- Date: Sat, 01 Mar 2025 10:18:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 18:50:37.405436
- Title: Unveiling AI's Threats to Child Protection: Regulatory efforts to Criminalize AI-Generated CSAM and Emerging Children's Rights Violations
- Title(参考訳): 子ども保護へのAIの脅威を解き明かす--CSAMの犯罪化と子どもの権利侵害の防止をめざして
- Authors: Emmanouela Kokolaki, Paraskevi Fragopoulou,
- Abstract要約: イメージによる児童性虐待の分野における新たな警戒傾向の提示を目指す。
主な貢献は、ホットラインレポートとダークウェブフォーラムで特定されたドメイン名との相関分析である。
ボイジャーシステムのATLASデータセットからの投稿内容の分析
このタイプのコンテンツやルートに対するユーザの見解も、悪意のある目的の防止を目的として設定された技術的障壁を克服するためのものだ。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to present new alarming trends in the field of child sexual abuse through imagery, as part of SafeLine's research activities in the field of cybercrime, child sexual abuse material and the protection of children's rights to safe online experiences. It focuses primarily on the phenomenon of AI-generated CSAM, sophisticated ways employed for its production which are discussed in dark web forums and the crucial role that the open-source AI models play in the evolution of this overwhelming phenomenon. The paper's main contribution is a correlation analysis between the hotline's reports and domain names identified in dark web forums, where users' discussions focus on exchanging information specifically related to the generation of AI-CSAM. The objective was to reveal the close connection of clear net and dark web content, which was accomplished through the use of the ATLAS dataset of the Voyager system. Furthermore, through the analysis of a set of posts' content drilled from the above dataset, valuable conclusions on forum members' techniques employed for the production of AI-generated CSAM are also drawn, while users' views on this type of content and routes followed in order to overcome technological barriers set with the aim of preventing malicious purposes are also presented. As the ultimate contribution of this research, an overview of the current legislative developments in all country members of the INHOPE organization and the issues arising in the process of regulating the AI- CSAM is presented, shedding light in the legal challenges regarding the regulation and limitation of the phenomenon.
- Abstract(参考訳): 本論文は、サイバー犯罪、児童性的虐待の分野におけるSafeLineの研究活動と、安全なオンライン体験に対する子どもの権利の保護の一環として、画像による児童性的虐待の分野における新たな警戒傾向を示すことを目的とする。
これは主に、暗黒のWebフォーラムで議論されているAI生成のCSAM現象と、この圧倒的な現象の進化においてオープンソースAIモデルが果たす重要な役割に焦点を当てている。
論文の主な貢献は、ホットラインレポートとダークウェブフォーラムで特定されたドメイン名との相関分析である。
目的は、ボイジャーシステムのATLASデータセットを用いて達成されたクリアネットとダークウェブの密接な接続を明らかにすることである。
さらに、上記データセットから抽出した投稿内容の集合を分析することにより、AI生成CSAMの製造に使用されるフォーラムメンバーの技法に関する貴重な結論も導き、また、悪意ある目的を予防するために設定された技術的障壁を克服するために、利用者のこのタイプのコンテンツやルートに対する見解も提示する。
本研究の究極的な貢献として、INHOPE組織の全加盟国における現在の立法展開の概要と、AI-CSAMの規制の過程で生じる課題について述べ、この現象の規制と制限に関する法的課題に光を当てる。
関連論文リスト
- Ethical AI for Young Digital Citizens: A Call to Action on Privacy Governance [0.0]
若者が利用するデジタルプラットフォームにおける人工知能の急速な拡張は、プライバシ、自律性、データ保護に関する大きな課題を生み出している。
AI駆動のパーソナライゼーションは、ユーザエクスペリエンスの向上を提供するが、しばしば明確な倫理的境界なしに動作し、若いユーザはデータエクスプロイトやアルゴリズム上のバイアスに弱いままである。
本稿では、青少年中心のプライバシ保護、透過的なデータプラクティス、規制監督を保証する構造化されたフレームワークを提唱する。
論文 参考訳(メタデータ) (2025-03-15T01:35:56Z) - Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - SoK: Watermarking for AI-Generated Content [112.9218881276487]
ウォーターマーキングスキームは、AI生成コンテンツに隠された信号を埋め込んで、信頼性の高い検出を可能にする。
透かしは、誤情報や偽造と戦ってAIの安全性と信頼性を高める上で重要な役割を果たす。
本研究の目的は、研究者が透かし法や応用の進歩を指導し、GenAIの幅広い意味に対処する政策立案者を支援することである。
論文 参考訳(メタデータ) (2024-11-27T16:22:33Z) - Combining Threat Intelligence with IoT Scanning to Predict Cyber Attack [0.0]
ハッカーやハックティビストグループを含む悪意ある俳優は、しばしば「ダークウェブ」を通じてイデオロギー的コンテンツを広め、活動を調整する。
本稿では,ダークウェブデータを体系的に収集,解析,可視化するために設計された,新たな予測脅威インテリジェンスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T23:00:51Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Safeguarding Marketing Research: The Generation, Identification, and Mitigation of AI-Fabricated Disinformation [0.26107298043931204]
生成AIは、人間のコントリビューションを忠実に模倣するコンテンツを生成する能力を確立している。
これらのモデルは、世論の操作や認識の歪曲に利用することができ、結果としてデジタルプラットフォームに対する信頼が低下する。
本研究は,マーケティング文献と実践に3つの方法で貢献する。
論文 参考訳(メタデータ) (2024-03-17T13:08:28Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Interactive Storytelling for Children: A Case-study of Design and
Development Considerations for Ethical Conversational AI [0.20999222360659603]
会話人工知能(CAI)システムと知能パーソナルアシスタント(IPA)は、私たちの生活の中でユビキタスになりつつある。
本稿では,技術開発の特定の事例における社会的文脈を考察し,文献内からの議論によって裏付け,支持された。
CAIを通じたストーリーテリングの倫理に開発者やステークホルダーと関わるさらなる研究は、緊急性の問題として強調される。
論文 参考訳(メタデータ) (2021-07-20T15:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。