論文の概要: Sustainable AI Regulation
- arxiv url: http://arxiv.org/abs/2306.00292v1
- Date: Thu, 1 Jun 2023 02:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 18:41:05.369827
- Title: Sustainable AI Regulation
- Title(参考訳): 持続可能なAI規制
- Authors: Philipp Hacker
- Abstract要約: 論文は、AIとテクノロジーをより広く、より環境に持続可能なものにするためのロードマップを策定する。
AIをよりグリーンにする法的手段と、AI規制をより持続可能なものにするための方法だ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper suggests that AI regulation needs a shift from trustworthiness to
sustainability. With the carbon footprint of large generative AI models like
ChatGPT or GPT-4 adding urgency to this goal, the paper develops a roadmap to
make AI, and technology more broadly, environmentally sustainable. It explores
two key dimensions: legal instruments to make AI greener; and methods to render
AI regulation more sustainable. Concerning the former, transparency mechanisms,
such as the disclosure of the GHG footprint under Article 11 AI Act, could be a
first step. However, given the well-known limitations of disclosure, regulation
needs to go beyond transparency. Hence, I propose a mix of co-regulation
strategies; sustainability by design; restrictions on training data; and
consumption caps. This regulatory toolkit may then, in a second step, serve as
a blueprint for other information technologies and infrastructures facing
significant sustainability challenges due to their high GHG emissions, e.g.:
blockchain; metaverse applications; and data centers. The second dimension
consists in efforts to render AI regulation, and by implication the law itself,
more sustainable. Certain rights we have come to take for granted, such as the
right to erasure (Article 17 GDPR), may have to be limited due to
sustainability considerations. For example, the subjective right to erasure, in
some situations, has to be balanced against the collective interest in
mitigating climate change. The paper formulates guidelines to strike this
balance equitably, discusses specific use cases, and identifies doctrinal legal
methods for incorporating such a "sustainability limitation" into existing
(e.g., Art. 17(3) GDPR) and future law (e.g., AI Act). Ultimately, law,
computer science and sustainability studies need to team up to effectively
address the dual large-scale transformations of digitization and
sustainability.
- Abstract(参考訳): 本稿では,AI規制が信頼性から持続可能性へのシフトを必要とすることを示唆する。
ChatGPTやGPT-4のような大規模な生成AIモデルの炭素フットプリントがこの目標に緊急性を加えることにより、この論文はAIとテクノロジーをより広く、環境に持続可能なものにするためのロードマップを開発する。
AIをよりグリーンにする法的手段と、AI規制をより持続可能なものにするための方法だ。
前者については、第11条のAI法に基づくGHGフットプリントの開示などの透明性メカニズムが第1ステップとなる可能性がある。
しかし、開示の既知の制限を考えると、規制は透明性を超える必要がある。
そこで本稿では,共規制戦略,設計による持続可能性,トレーニングデータに対する制約,消費キャップの混合を提案する。
この規制ツールキットは、第2段階として、ブロックチェーン、メタバースアプリケーション、データセンターなどの高いGHG排出量のために、サステナビリティの問題に直面している他の情報技術やインフラの青写真として機能する可能性がある。
第2の次元は、AI規制の実施と、法律自体をより持続可能なものにすることで構成される。
消去権(第17条GDPR)など、私たちが当然としてきた特定の権利は、持続可能性を考慮して制限されなければならない。
例えば、ある状況では、根絶する主観的な権利は、気候変動の緩和に対する集団的関心に対してバランスをとる必要がある。
この論文は、このバランスを公平に打つためのガイドラインを定式化し、特定のユースケースについて議論し、そのような「持続可能性制限」を既存の(例えば17条(3)GDPR)および将来の法(例えばAI法)に組み込む教義的な法的方法を特定する。
最終的に、法、計算機科学、持続可能性の研究は、デジタル化と持続可能性の2つの大規模変換を効果的に扱うために協力する必要がある。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI, Climate, and Regulation: From Data Centers to the AI Act [2.874893537471256]
我々は、特にデータセンターとAIの気候関連規制に関するガイダンスを提供することを目標としている。
我々は、AIの推論から、これまで未解決であったエネルギー消費の報告を、その範囲に戻すために、AI法の具体的な解釈を提案する。
我々は、環境問題を含むAI法を強制リスクアセスメントに解釈することを主張する。
論文 参考訳(メタデータ) (2024-10-09T08:43:53Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Integrating AI's Carbon Footprint into Risk Management Frameworks: Strategies and Tools for Sustainable Compliance in Banking Sector [0.0]
本稿では,AIの炭素フットプリントを銀行セクターのリスク管理フレームワーク(RMF)に統合することを検討する。
近年のAI研究、例えばOpen Mixture-of-Experts (OLMoE)フレームワークは、より効率的でダイナミックなAIモデルを提供する。
これらの技術的例を用いて、この論文は、銀行がAIの炭素フットプリントを特定し、評価し、緩和するための構造化されたアプローチを概説している。
論文 参考訳(メタデータ) (2024-09-15T23:09:27Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Recommendations for public action towards sustainable generative AI
systems [0.0]
本稿では,生成AIの環境フットプリントの構成要素について述べる。
これは、大規模な言語モデルのトレーニングに関連する大量のCO2排出量と水消費を強調します。
また, 環境負荷に影響を及ぼすモデルの特徴と要因についても検討した。
論文 参考訳(メタデータ) (2024-01-04T08:55:53Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。