論文の概要: Global AI Governance Overview: Understanding Regulatory Requirements Across Global Jurisdictions
- arxiv url: http://arxiv.org/abs/2512.02046v1
- Date: Wed, 26 Nov 2025 13:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.527891
- Title: Global AI Governance Overview: Understanding Regulatory Requirements Across Global Jurisdictions
- Title(参考訳): グローバルAIガバナンスの概要:グローバルな判決全体にわたる規制要件の理解
- Authors: Mariia Kyrychenko, Mykyta Mudryi, Markiyan Chaklosh,
- Abstract要約: 汎用AIモデルの急速な進歩により、トレーニングデータにおける著作権侵害に対する懸念が高まっている。
本稿では,EU,米国,アジア太平洋地域を含む主要地域におけるAIトレーニングデータガバナンスの規制状況について検討する。
また、AI開発におけるクリエーターの権利と持続可能性の両方を脅かす強制機構における重要なギャップを特定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of general-purpose AI models has increased concerns about copyright infringement in training data, yet current regulatory frameworks remain predominantly reactive rather than proactive. This paper examines the regulatory landscape of AI training data governance in major jurisdictions, including the EU, the United States, and the Asia-Pacific region. It also identifies critical gaps in enforcement mechanisms that threaten both creator rights and the sustainability of AI development. Through analysis of major cases we identified critical gaps in pre-training data filtering. Existing solutions such as transparency tools, perceptual hashing, and access control mechanisms address only specific aspects of the problem and cannot prevent initial copyright violations. We identify two fundamental challenges: pre-training license collection and content filtering, which faces the impossibility of comprehensive copyright management at scale, and verification mechanisms, which lack tools to confirm filtering prevented infringement. We propose a multilayered filtering pipeline that combines access control, content verification, machine learning classifiers, and continuous database cross-referencing to shift copyright protection from post-training detection to pre-training prevention. This approach offers a pathway toward protecting creator rights while enabling continued AI innovation.
- Abstract(参考訳): 汎用AIモデルの急速な進歩は、トレーニングデータにおける著作権侵害に対する懸念を増大させているが、現在の規制フレームワークは、積極的にではなく、主にリアクティブである。
本稿では,EU,米国,アジア太平洋地域を含む主要地域におけるAIトレーニングデータガバナンスの規制状況について検討する。
また、AI開発におけるクリエーターの権利と持続可能性の両方を脅かす強制機構における重要なギャップを特定する。
主要症例の分析を通じて,事前学習データフィルタリングにおける重要なギャップを同定した。
透明性ツール、知覚的ハッシュ、アクセス制御機構といった既存のソリューションは、問題の特定の側面だけに対処し、初期著作権侵害を防ぐことはできない。
ライセンス収集の事前訓練と,大規模な包括的な著作権管理の不可避性に直面するコンテンツフィルタリングと,フィルタリング防止のためのツールが欠如している検証メカニズムの2つの基本的な課題を特定した。
本稿では,アクセス制御,コンテンツ検証,機械学習分類器,連続データベース参照を組み合わせた多層フィルタリングパイプラインを提案する。
このアプローチは、継続的なAIイノベーションを可能にしながら、クリエーターの権利を保護するための道筋を提供する。
関連論文リスト
- Copyright in AI Pre-Training Data Filtering: Regulatory Landscape and Mitigation Strategies [0.0]
汎用AIモデルの急速な進歩により、トレーニングデータにおける著作権侵害に対する懸念が高まっている。
本稿では,EU,米国,アジア太平洋地域を含む主要地域におけるAIトレーニングデータガバナンスの規制状況について検討する。
また、AI開発におけるクリエーターの権利と持続可能性の両方を脅かす強制機構における重要なギャップを特定する。
論文 参考訳(メタデータ) (2025-11-26T14:02:45Z) - Anti-Regulatory AI: How "AI Safety" is Leveraged Against Regulatory Oversight [0.9883261192383612]
AI企業は、プライバシ強化技術、バイアス抑制対策、評価フレームワーク、アライメントテクニックの開発と展開をますます進めている。
本稿では,法的な影響のメカニズムとして,これらの技術の内面的機能について考察する。
論文 参考訳(メタデータ) (2025-09-26T19:35:10Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Governing AI Beyond the Pretraining Frontier [0.0]
今年は、米国、欧州連合、英国、中国を含む世界中の司法管轄区域が、フロンティアAIを規定する法律を制定または改正する予定である。
しかし、この「事前訓練パラダイム」が壁を突き抜け、主要なAI企業が代替アプローチに転換していることを示す証拠が増えている。
このエッセイは、これらの課題を特定し、規制のために進む新たな道を指し示そうとしている。
論文 参考訳(メタデータ) (2025-01-27T16:25:03Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation [14.704747149179047]
計算プロバイダは、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と我々は主張する。
コンピューティングプロバイダは,4つの重要な能力を通じて,規制エコシステムにおいて重要な役割を果たすことができます。
論文 参考訳(メタデータ) (2024-03-13T13:08:16Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。