論文の概要: The unsuitability of existing regulations to reach sustainable AI
- arxiv url: http://arxiv.org/abs/2601.04958v1
- Date: Thu, 08 Jan 2026 14:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.227094
- Title: The unsuitability of existing regulations to reach sustainable AI
- Title(参考訳): 持続可能なAIに到達するための既存の規制の不適合性
- Authors: Thomas Le Goff,
- Abstract要約: 漸進的な進歩にもかかわらず、現在のアプローチは、AI関連のエネルギー使用、水消費、および物質需要を支える市場の失敗を正すのに不適当である、と我々は主張する。
この分析は、これらの規制のギャップを、学術研究、市民社会の擁護、標準設定、産業イニシアチブのより広いエコシステムの中に位置づけている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper examines the European Union's emerging regulatory landscape - focusing on the AI Act, corporate sustainability reporting and due diligence regimes (CSRD and CSDDD), and data center regulation - to assess whether it can effectively govern AI's environmental footprint. We argue that, despite incremental progress, current approaches remain ill-suited to correcting the market failures underpinning AI-related energy use, water consumption, and material demand. Key shortcomings include narrow disclosure requirements, excessive reliance on voluntary standards, weak enforcement mechanisms, and a structural disconnect between AI-specific impacts and broader sustainability laws. The analysis situates these regulatory gaps within a wider ecosystem of academic research, civil society advocacy, standard-setting, and industry initiatives, highlighting risks of regulatory capture and greenwashing. Building on this diagnosis, the paper advances strategic recommendations for the COP30 Action Agenda, calling for binding transparency obligations, harmonized international standards for lifecycle assessment, stricter governance of data center expansion, and meaningful public participation in AI infrastructure decisions.
- Abstract(参考訳): 本稿は、AIの環境フットプリントを効果的に管理できるかどうかを評価するために、欧州連合(EU)の新興規制の展望(AI法、企業サステナビリティレポート、デューディリジェンス体制(CSRDとCSDDD)、データセンター規制)について考察する。
漸進的な進歩にもかかわらず、現在のアプローチは、AI関連のエネルギー使用、水消費、および物質需要を支える市場の失敗を正すのに不適当である、と我々は主張する。
主な欠点は、開示要件の狭さ、自発的標準への過度な依存、執行機構の弱さ、AI固有の影響とより広範な持続可能性法の間の構造的切り離しである。
この分析は、これらの規制のギャップを、学術研究、市民社会の擁護、標準設定、産業のイニシアチブのより広いエコシステムの中に位置づけ、規制の捕獲と緑の洗浄のリスクを強調している。
この診断に基づいて、論文はCOP30 Action Agendaの戦略的レコメンデーションを推進し、透明性義務の拘束、ライフサイクルアセスメントのための調和した国際標準、データセンター拡張の厳格なガバナンス、AIインフラストラクチャ決定への有意義な公的な参加を求める。
関連論文リスト
- Benchmarking is Broken -- Don't Let AI be its Own Judge [22.93026946593552]
私たちは、AIを評価するための現在のlaissez-faireアプローチは持続不可能である、と論じます。
PeerBenchは、コミュニティが管理し、熟達した評価青写真である。
私たちのゴールは、完全性を回復し、真に信頼できるAI進歩の手段を提供するための評価の道を開くことです。
論文 参考訳(メタデータ) (2025-10-08T21:41:37Z) - Towards a Framework for Supporting the Ethical and Regulatory Certification of AI Systems [8.633165810707315]
CERTAINプロジェクトは、規制コンプライアンス、倫理基準、透明性をAIシステムに統合することを目的としている。
このフレームワークのコアコンポーネントを構築するための方法論的な手順を概説する。
CERTAINは、規制コンプライアンスを推進し、欧州標準に沿った責任あるAIイノベーションを促進することを目的としている。
論文 参考訳(メタデータ) (2025-09-30T08:54:02Z) - Watermarking Without Standards Is Not AI Governance [46.71493672772134]
現在の実装は、効果的な監視を提供するのではなく、象徴的なコンプライアンスとして機能するリスクがある、と私たちは主張する。
本稿では,技術標準,監査インフラストラクチャ,実施機構を含む3層フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T18:10:04Z) - AIJIM: A Scalable Model for Real-Time AI in Environmental Journalism [0.0]
AIJIMは、リアルタイムAIを環境ジャーナリズムに統合するためのフレームワークである。
2024年にマルロルカ島で試験飛行を行った。
検出精度85.4%、専門家のアノテーションとの89.7%の合意に達した。
論文 参考訳(メタデータ) (2025-03-19T19:00:24Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - The Role of Legal Frameworks in Shaping Ethical Artificial Intelligence Use in Corporate Governance [0.0]
本稿では、企業統治における倫理的人工知能(AI)利用の形成における法的枠組みの進化的役割について考察する。
企業AIアプリケーションにおける透明性、説明責任、公正性の促進を目的とした、重要な法的および規制的なアプローチを探求する。
論文 参考訳(メタデータ) (2025-03-17T14:21:58Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Developing and Deploying Industry Standards for Artificial Intelligence in Education (AIED): Challenges, Strategies, and Future Directions [22.65961106637345]
AIED(Artificial Intelligence in Education)は、教育実践に革命をもたらすことを約束している。
AIEDソリューションの開発とデプロイにおける標準化されたプラクティスの欠如は、断片化されたエコシステムにつながった。
この記事では、AIEDにおける業界標準の開発と実装に関する重要なニーズに対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-13T22:38:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。