論文の概要: On the (im)possibility of sustainable artificial intelligence. Why it does not make sense to move faster when heading the wrong way
- arxiv url: http://arxiv.org/abs/2503.17702v1
- Date: Sat, 22 Mar 2025 09:01:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:39:39.901021
- Title: On the (im)possibility of sustainable artificial intelligence. Why it does not make sense to move faster when heading the wrong way
- Title(参考訳): 持続可能な人工知能の可能性について : 間違った方向に進むときに速く動くことが意味がない理由
- Authors: Rainer Rehak,
- Abstract要約: この記事では、クリティカルデータとアルゴリズム研究、STS、トランスフォーメーションサステナビリティ科学、クリティカルコンピュータ科学、パブリック関心理論の知見を引用する。
確かにAIには持続可能性に関連するユースケースがたくさんあるが、利益よりも全体的な欠点がある可能性が高い、と私は主張する。
あらゆる物質において、その影響は特に世界の南部では壊滅的であり、世界の北部では恩恵を受けている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Artificial intelligence (AI) is currently considered a sustainability "game-changer" within and outside of academia. In order to discuss sustainable AI this article draws from insights by critical data and algorithm studies, STS, transformative sustainability science, critical computer science, and public interest theory. I argue that while there are indeed many sustainability-related use cases for AI, they are likely to have more overall drawbacks than benefits. To substantiate this claim, I differentiate three 'AI materialities' of the AI supply chain: first the literal materiality (e.g. water, cobalt, lithium, energy consumption etc.), second, the informational materiality (e.g. lots of data and centralised control necessary), and third, the social materiality (e.g. exploitative data work, communities harm by waste and pollution). In all materialities, effects are especially devastating for the global south while benefiting the global north. A second strong claim regarding sustainable AI circles around so called apolitical optimisation (e.g. regarding city traffic), however the optimisation criteria (e.g. cars, bikes, emissions, commute time, health) are purely political and have to be collectively negotiated before applying AI optimisation. Hence, sustainable AI, in principle, cannot break the glass ceiling of transformation and might even distract from necessary societal change. To address that I propose to stop 'unformation gathering' and to apply the 'small is beautiful' principle. This aims to contribute to an informed academic and collective negotiation on how to (not) integrate AI into the sustainability project while avoiding to reproduce the status quo by serving hegemonic interests between useful AI use cases, techno-utopian salvation narratives, technology-centred efficiency paradigms, the exploitative and extractivist character of AI and concepts of digital degrowth.
- Abstract(参考訳): 人工知能(AI)は現在、学界内外の持続可能性「ゲームチェンジャー」と見なされている。
持続可能なAIについて議論するために、この記事では、クリティカルデータとアルゴリズム研究、STS、トランスフォーメーションサステナビリティ科学、クリティカルコンピュータサイエンス、パブリック関心理論の洞察を引用する。
確かにAIには持続可能性に関連するユースケースがたくさんあるが、利益よりも全体的な欠点がある可能性が高い、と私は主張する。
この主張を裏付けるために、AIサプライチェーンの3つの「AIマティリティ」を区別します。まず、リテラルマティリティ(例えば、水、コバルト、リチウム、エネルギー消費など)、第2に、情報マティリティ(例えば、大量のデータと集中管理が必要)、第3に、社会マティリティ(例えば、搾取データワーク、廃棄物と汚染によるコミュニティ)。
あらゆる物質において、その影響は特に世界の南部では壊滅的であり、世界の北部では恩恵を受けている。
持続可能なAIサークルに関する第2の強い主張は、いわゆる非政治的最適化(例えば、都市交通)であるが、最適化基準(例えば、自動車、自転車、排気ガス、通勤時間、健康)は純粋に政治的であり、AI最適化を適用する前にまとめて交渉する必要がある。
したがって、持続可能なAIは、原則として、変革のガラスの天井を壊すことはできない。
そこで私は,「情報収集」を中止し,「小さくて美しい」原則を適用することを提案する。
これは、有用なAIユースケース、テクノユートピアの救世物語、技術中心の効率パラダイム、AIの搾取的かつ抽出的性格、デジタルデグロースの概念の間のヘヘモニックな関心を提供することによって、現状を再現することを避けながら、サステナビリティプロジェクトへのAIの統合方法(そうでない)に関する情報学術的および集合的な交渉に貢献することを目的としている。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Artificial Intelligence for Real Sustainability? -- What is Artificial
Intelligence and Can it Help with the Sustainability Transformation? [0.0]
この記事では、AI技術を簡潔に説明し、分類し、理論化する。
そして、持続可能性に関する議論の観点から、その分析を政治的に文脈化する。
持続可能な社会へ進む上で、AIは小さな役割を担っている、と氏は主張する。
論文 参考訳(メタデータ) (2023-06-15T15:40:00Z) - ChatGPT, Large Language Technologies, and the Bumpy Road of Benefiting
Humanity [2.28438857884398]
AI技術がすべての人類に利益をもたらすという約束は、人類が世界的不平等を拡大し、実在の脅威を迫られる状況に直面していると想定されていることの、微妙な理解が欠如している限り、空白である。
我々はまた、単に投機的な質問とよく調査された質問を区別する、持続的で公平な方法で標準を開発する必要がある。
このような失敗は、私たちのAI技術の進歩が、倫理的および社会的意味をナビゲートする能力を上回る未来をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-04-21T22:53:45Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - AI Governance and Ethics Framework for Sustainable AI and Sustainability [0.0]
自律兵器、自動化された雇用損失、社会経済的不平等、データやアルゴリズムによる偏見、プライバシー侵害、ディープフェイクなど、人類にとってのAIリスクは数多く発生している。
社会的多様性、公平性、包摂性は、リスクを緩和し、価値を生み出し、社会正義を促進するAIの重要な成功要因と考えられている。
AIによる持続可能な未来に向けての旅では、優先事項としてAI倫理とガバナンスに取り組む必要があります。
論文 参考訳(メタデータ) (2022-09-28T22:23:10Z) - The Need for Ethical, Responsible, and Trustworthy Artificial
Intelligence for Environmental Sciences [0.04588028371034406]
AIの倫理的利用と責任に関する議論を始めることが不可欠である。
一般的な誤解は、環境科学はAIが使われているときに意図しない結果に免疫があるということである。
天気や気候の例に焦点をあてるが、その結論は環境科学に広く当てはまる。
論文 参考訳(メタデータ) (2021-12-15T19:57:38Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI Ethics Needs Good Data [0.8701566919381224]
AIに関する言論は「倫理」の言語を超越し、権力と政治経済と関わり合わなければならないと我々は主張する。
私たちは、グッドデータAIを構築することができる4つの「経済」を提供します:コミュニティ、権利、ユーザビリティ、政治。
論文 参考訳(メタデータ) (2021-02-15T04:16:27Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。