論文の概要: Broadening the perspective for sustainable AI: Comprehensive
sustainability criteria and indicators for AI systems
- arxiv url: http://arxiv.org/abs/2306.13686v2
- Date: Wed, 22 Nov 2023 19:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 03:51:06.198024
- Title: Broadening the perspective for sustainable AI: Comprehensive
sustainability criteria and indicators for AI systems
- Title(参考訳): 持続可能なAIの展望を広げる:AIシステムの総合的持続可能性基準と指標
- Authors: Friederike Rohde, Josephin Wagner, Andreas Meyer, Philipp Reinhard,
Marcus Voss, Ulrich Petschow, Anne Mollen
- Abstract要約: 本稿では,「持続可能なAI」に対する包括的視点の要求の実証に向けての一歩を踏み出す。
SCAIS Frameworkは、持続可能なAIと67の指標のための19の持続可能性基準を含んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The increased use of AI systems is associated with multi-faceted societal,
environmental, and economic consequences. These include non-transparent
decision-making processes, discrimination, increasing inequalities, rising
energy consumption and greenhouse gas emissions in AI model development and
application, and an increasing concentration of economic power. By considering
the multi-dimensionality of sustainability, this paper takes steps towards
substantiating the call for an overarching perspective on "sustainable AI". It
presents the SCAIS Framework (Sustainability Criteria and Indicators for
Artificial Intelligence Systems) which contains a set 19 sustainability
criteria for sustainable AI and 67 indicators that is based on the results of a
critical review and expert workshops. This interdisciplinary approach
contributes a unique holistic perspective to facilitate and structure the
discourse on sustainable AI. Further, it provides a concrete framework that
lays the foundation for developing standards and tools to support the conscious
development and application of AI systems.
- Abstract(参考訳): AIシステムの利用の増加は、多面的な社会、環境、経済的影響と関連している。
これには、透明でない意思決定プロセス、差別、不平等の増大、AIモデルの開発と応用におけるエネルギー消費と温室効果ガス排出量の増加、経済力の集中の増大が含まれる。
本稿では,サステナビリティの多次元性を考慮することで,持続可能なAIに対する包括的視点の要求を実証する。
SCAIS Framework(Sustainability Criteria and Indicators for Artificial Intelligence Systems)は、持続可能なAIのための19の持続可能性基準と、批判的なレビューと専門家ワークショップの結果に基づく67の指標を含んでいる。
この学際的アプローチは、持続可能なaiに関する談話の促進と構造化のために、ユニークな全体論的視点をもたらす。
さらに、aiシステムの意識的な開発と応用をサポートする標準とツールを開発するための基盤となる具体的なフレームワークを提供する。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Assessing the Sustainability and Trustworthiness of Federated Learning
Models [7.228253116465784]
この研究は、最新の総合的な信頼に値するフェデレーテッドラーニングの分類にサステナビリティの柱を導入します。
FLシステムの環境影響を評価し、ハードウェア効率、フェデレーションの複雑さ、エネルギーグリッドの炭素強度の概念とメトリクスを取り入れている。
持続可能性柱を組み込むことで、FLモデルの信頼性を評価するアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-10-31T13:14:43Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - An Artificial Intelligence-based Framework to Achieve the Sustainable
Development Goals in the Context of Bangladesh [1.0276024900942875]
持続可能な発展の柱である社会、環境、経済の3つにAIが与える影響について検討する。
本稿では,AIのネガティブな影響を低減し,この技術の積極性を促進するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-23T17:36:37Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - A Survey on AI Sustainability: Emerging Trends on Learning Algorithms
and Research Challenges [35.317637957059944]
我々は、AIの持続可能性問題に対処できる機械学習アプローチの大きなトレンドについてレビューする。
我々は、既存の研究の大きな限界を強調し、次世代の持続可能なAI技術を開発するための潜在的研究課題と方向性を提案する。
論文 参考訳(メタデータ) (2022-05-08T09:38:35Z) - Sustainable Artificial Intelligence through Continual Learning [4.243356707599486]
持続的学習は、持続可能なAIの原則に準拠したシステム設計への有望なアプローチである。
Sustainable AIは倫理的応用のための一般的なデシダラタを概説しているが、継続学習はそのようなデシダラタを実践する手段を提供する。
論文 参考訳(メタデータ) (2021-11-17T22:43:13Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。