論文の概要: Criminal Liability of Generative Artificial Intelligence Providers for User-Generated Child Sexual Abuse Material
- arxiv url: http://arxiv.org/abs/2601.03788v1
- Date: Wed, 07 Jan 2026 10:38:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.181004
- Title: Criminal Liability of Generative Artificial Intelligence Providers for User-Generated Child Sexual Abuse Material
- Title(参考訳): 子どもの性的虐待材料に対する生成人工知能プロバイダの犯罪責任
- Authors: Anamaria Mojica-Hanke, Thomas Goger, Svenja Wölfel, Brian Valerius, Steffen Herbold,
- Abstract要約: 本研究は、児童性虐待物質(CSAM)生成におけるGenAIの異なる性質について考察する。
我々は、CSAMをGenAIで生成すると、第一の犯罪を犯したユーザに対して、犯罪的および法的結果が生じる可能性があることを見出した。
犯罪責任の評価は、生成された画像の種類、コンテンツモデレーションポリシー、モデルの意図した目的など、文脈的および技術的要因に影響される可能性がある。
- 参考スコア(独自算出の注目度): 4.365951320347686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of more powerful Generative Artificial Intelligence (GenAI) has expanded its capabilities and the variety of outputs. This has introduced significant legal challenges, including gray areas in various legal systems, such as the assessment of criminal liability for those responsible for these models. Therefore, we conducted a multidisciplinary study utilizing the statutory interpretation of relevant German laws, which, in conjunction with scenarios, provides a perspective on the different properties of GenAI in the context of Child Sexual Abuse Material (CSAM) generation. We found that generating CSAM with GenAI may have criminal and legal consequences not only for the user committing the primary offense but also for individuals responsible for the models, such as independent software developers, researchers, and company representatives. Additionally, the assessment of criminal liability may be affected by contextual and technical factors, including the type of generated image, content moderation policies, and the model's intended purpose. Based on our findings, we discussed the implications for different roles, as well as the requirements when developing such systems.
- Abstract(参考訳): より強力な生成人工知能(GenAI)の開発は、その能力と様々な出力を拡張した。
これは、様々な法体系における灰色領域、例えばこれらのモデルに責任を持つ人々に対する刑事責任の評価などを含む、重大な法的課題をもたらした。
そこで我々は,関連するドイツの法律の法解釈を利用して,児童性虐待物質(CSAM)世代におけるGenAIの異なる性質を考察した。
我々は、CSAMをGenAIで生成することは、第一犯者だけでなく、独立系ソフトウェア開発者、研究者、企業代表者など、モデルに責任を持つ個人に対しても犯罪的、法的結果をもたらす可能性があることを発見した。
さらに、犯罪責任の評価は、生成された画像の種類、コンテンツモデレーションポリシー、モデルの意図した目的など、文脈的および技術的な要因に影響される可能性がある。
そこで本研究では,このようなシステム開発における役割や要件の相違点について考察した。
関連論文リスト
- Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Generative Artificial Intelligence Meets Synthetic Aperture Radar: A Survey [49.29751866761522]
本稿では,GenAIとSARの交差点について検討する。
まず、SAR分野における一般的なデータ生成ベースのアプリケーションについて説明する。
次に、最新のGenAIモデルの概要を体系的にレビューする。
最後に、SARドメインの対応するアプリケーションも含まれる。
論文 参考訳(メタデータ) (2024-11-05T03:06:00Z) - Predicting the Impact of Generative AI Using an Agent-Based Model [0.0]
生成人工知能(AI)システムは、人間の創造性を模倣するコンテンツを自律的に生成することで産業を変革した。
本稿ではエージェント・ベース・モデリング(ABM)を用いてこれらの意味を探索する。
ABMは個人、ビジネス、政府エージェントを統合し、教育、スキル獲得、AIの採用、規制対応などのダイナミクスをシミュレートする。
論文 参考訳(メタデータ) (2024-08-30T13:13:56Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - On the Limitations and Prospects of Machine Unlearning for Generative AI [7.795648142175443]
Generative AI(GenAI)は、潜伏変数やその他のデータモダリティから現実的で多様なデータサンプルを合成することを目的としている。
GenAIは自然言語、画像、オーディオ、グラフなど、さまざまな領域で顕著な成果を上げている。
しかし、データプライバシ、セキュリティ、倫理に課題やリスクも生じている。
論文 参考訳(メタデータ) (2024-08-01T08:35:40Z) - Unsettled Law: Time to Generate New Approaches? [1.3651236252124068]
我々は、生成人工知能(GenAI)による倫理的・社会的意味の深い重要かつ未解決ないくつかの法的問題を特定する。
我々の重要な貢献は、学術や実践者がより有用な調査や議論を行えるように、GenAI特有の問題を正式に特定することである。
我々は、GenAIの特徴として、汎用性、大規模なデータセットへの依存、広く普及する社会的利益と害の両方の可能性などを挙げ、既存の法的パラダイムの再評価の必要性を論じる。
論文 参考訳(メタデータ) (2024-07-02T05:51:41Z) - A Survey on Responsible Generative AI: What to Generate and What Not [15.903523057779651]
本稿では,テキスト生成モデルと視覚生成モデルの両方の実用的責任要件について検討する。
真理コンテンツの生成,有害なコンテンツの回避,有害な指導の拒否,トレーニングデータ関連コンテンツの漏洩,生成内容の確認という5つの重要な考察を概説する。
論文 参考訳(メタデータ) (2024-04-08T17:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。