論文の概要: Expert Assessment: The Systemic Environmental Risks of Artficial Intelligence
- arxiv url: http://arxiv.org/abs/2512.11863v1
- Date: Fri, 05 Dec 2025 10:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.737893
- Title: Expert Assessment: The Systemic Environmental Risks of Artficial Intelligence
- Title(参考訳): エキスパートアセスメント : 人工知能のシステム的環境リスク
- Authors: Julian Schön, Lena Hoffmann, Nikolas Becker,
- Abstract要約: AIのシステム的環境リスクは創発的であり、クロスセクターは気候、生物多様性、淡水、より広範な社会生態システムに害を与える。
本稿では,システム的リスク分析を運用する3段階のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial intelligence (AI) is often presented as a key tool for addressing societal challenges, such as climate change. At the same time, AI's environmental footprint is expanding increasingly. This report describes the systemic environmental risks of artificial intelligence, in particular, moving beyond direct impacts such as energy and water usage. Systemic environmental risks of AI are emergent, cross-sector harms to climate, biodiversity, freshwater, and broader socioecological systems that arise primarily from AI's integration into social, economic, and physical infrastructures, rather than its direct resource use, and that propagate through feedbacks, yielding nonlinear, inequitable, and potentially irreversible impacts. While these risks are emergent and quantification is uncertain, this report aims to provide an overview of systemic environmental risks. Drawing on a narrative literature review, we propose a three-level framework that operationalizes systemic risk analysis. The framework identifies the structural conditions that shape AI development, the risk amplification mechanisms that propagate environmental harm, and the impacts that manifest as observable ecological and social consequences. We illustrate the framework in expert-interview-based case studies across agriculture and biodiversity, oil and gas, and waste management.
- Abstract(参考訳): 人工知能(AI)は、気候変動のような社会的課題に対処するための重要なツールとしてしばしば提示される。
同時に、AIの環境フットプリントは増加しています。
本報告では,人工知能のシステム的環境リスクについて述べる。
AIのシステム的環境リスクは創発的であり、クロスセクターは気候、生物多様性、淡水、そしてより広範な社会生態システムに害を与え、AIが直接の資源使用ではなく、社会的、経済的、物理的インフラへの統合から生じるものであり、フィードバックを通じて伝播し、非線形、不平等、潜在的に不可逆的な影響をもたらす。
これらのリスクは創発的であり、定量化は不確実であるが、本報告は、システム的環境リスクの概要を提供することを目的としている。
本稿では,物語文献のレビューに基づいて,システム的リスク分析を運用する3段階の枠組みを提案する。
このフレームワークは、AI開発を形成する構造条件、環境被害を伝播するリスク増幅機構、および観測可能な生態学的および社会的影響として表される影響を識別する。
本稿では, 農業, 生物多様性, 石油, ガス, 廃棄物管理における専門家による事例研究の枠組みを説明する。
関連論文リスト
- AI-based Approach in Early Warning Systems: Focus on Emergency Communication Ecosystem and Citizen Participation in Nordic Countries [0.7373617024876725]
この章は、準備、緊急対応、そして犯罪後のフェーズを区別する全体論的なアプローチを提唱している。
早期警戒システム(EWS)やリスクモデリング、緩和対策の役割が特に強調されている。
北欧諸国の事例研究が注目されている。
論文 参考訳(メタデータ) (2025-06-20T12:32:16Z) - Open and Sustainable AI: challenges, opportunities and the road ahead in the life sciences (October 2025 -- Version 2) [49.142289900583705]
我々は、AI研究成果に対する信頼の侵食の増加についてレビューする。
我々は、AIエコシステムの断片化されたコンポーネントと、OpenとSustainable AIを最大限にサポートするためのガイドパスの欠如について論じる。
私たちの研究は、研究者と関連するAIリソースを結びつけることで、持続可能な、再利用可能な、透過的なAIの実装を容易にします。
論文 参考訳(メタデータ) (2025-05-22T12:52:34Z) - Adapting Probabilistic Risk Assessment for AI [0.0]
汎用人工知能(AI)システムは、緊急リスク管理の課題を示す。
現在の手法は、しばしば選択的なテストとリスク優先順位に関する未文書の仮定に依存します。
本稿では,AIフレームワークの確率的リスクアセスメント(PRA)を紹介する。
論文 参考訳(メタデータ) (2025-04-25T17:59:14Z) - From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate [69.05573887799203]
これらの2次の影響を理解するには、ライフサイクルアセスメントと社会経済分析を組み合わせた学際的アプローチが必要であると論じる。
AIの真の気候フットプリントを誤って表現し、意味のある介入の範囲を制限している、と我々は主張する。
論文 参考訳(メタデータ) (2025-01-27T22:45:06Z) - A Taxonomy of Systemic Risks from General-Purpose AI [2.5956465292067867]
我々は、システム的リスクを、社会全体や経済に影響を及ぼす大規模な脅威と見なしている。
システム的リスクの主な源は、知識ギャップ、害を認識するための課題、そしてAI開発における予測不可能な軌道から生まれる。
本稿では,汎用AIの大規模負の社会的影響を理解し,対処するための構造的基盤を提供することで,AIの安全性研究に寄与する。
論文 参考訳(メタデータ) (2024-11-24T22:16:18Z) - Transforming disaster risk reduction with AI and big data: Legal and interdisciplinary perspectives [4.007465634200105]
AIが法的枠組みや環境管理にどのように影響するかを論じる。
法的および環境的な考慮事項が、社会経済領域内でAIをいかに限定するかを検査する。
AI統合に基づいた適応的な法体系を構築するために、学際的なコラボレーションのための青写真を提供する。
論文 参考訳(メタデータ) (2024-09-20T16:08:34Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。