論文の概要: AI Sustainability in Practice Part Two: Sustainability Throughout the AI Workflow
- arxiv url: http://arxiv.org/abs/2403.15404v1
- Date: Mon, 19 Feb 2024 22:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:13:49.282215
- Title: AI Sustainability in Practice Part Two: Sustainability Throughout the AI Workflow
- Title(参考訳): 実践におけるAIサステナビリティ その2:AIワークフローを通してのサステナビリティ
- Authors: David Leslie, Cami Rincon, Morgan Briggs, Antonella Perini, Smera Jayadeva, Ann Borda, SJ Bennett, Christopher Burr, Mhairi Aitken, Michael Katell, Claudia Fischer, Janis Wong, Ismael Kherroubi Garcia,
- Abstract要約: このワークブックは、AIサステナビリティに関する2つのワークブックの一部である。
SIAと活動のテンプレートを提供し、その重要な部分を深く掘り下げることができます。
SIAにおける価値の重み付けとトレードオフを検討する方法について論じる。
- 参考スコア(独自算出の注目度): 0.46671368497079174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sustainability of AI systems depends on the capacity of project teams to proceed with a continuous sensitivity to their potential real-world impacts and transformative effects. Stakeholder Impact Assessments (SIAs) are governance mechanisms that enable this kind of responsiveness. They are tools that create a procedure for, and a means of documenting, the collaborative evaluation and reflective anticipation of the possible harms and benefits of AI innovation projects. SIAs are not one-off governance actions. They require project teams to pay continuous attention to the dynamic and changing character of AI production and use and to the shifting conditions of the real-world environments in which AI technologies are embedded. This workbook is part two of two workbooks on AI Sustainability. It provides a template of the SIA and activities that allow a deeper dive into crucial parts of it. It discusses methods for weighing values and considering trade-offs during the SIA. And, it highlights the need to treat the SIA as an end-to-end process of responsive evaluation and re-assessment.
- Abstract(参考訳): AIシステムの持続性は、実世界の潜在的な影響と変革的な影響に対して、継続的な感度で進むためのプロジェクトチームの能力に依存する。
Stakeholder Impact Assessments(SIAs)は、このような応答性を実現するガバナンスメカニズムである。
それらは、AIイノベーションプロジェクトの害と利益に関する、共同評価と反射的な予測のための手順を作成し、文書化するためのツールである。
SIAは1対1のガバナンス行動ではない。
プロジェクトチームは、AI生産と使用のダイナミックで変化している特性と、AI技術が組み込まれている現実環境のシフト状況に継続的な注意を払う必要がある。
このワークブックは、AIサステナビリティに関する2つのワークブックの一部である。
SIAと活動のテンプレートを提供し、その重要な部分を深く掘り下げることができます。
SIAにおける価値の重み付けとトレードオフを検討する方法について論じる。
また、SIAを応答性評価と再評価のエンドツーエンドプロセスとして扱う必要性を強調している。
関連論文リスト
- Safety is Essential for Responsible Open-Ended Systems [47.172735322186]
オープンエンドレスネス(Open-Endedness)とは、AIシステムが新規で多様なアーティファクトやソリューションを継続的に自律的に生成する能力である。
このポジションペーパーは、Open-Ended AIの本質的に動的で自己伝播的な性質は、重大な、未発見のリスクをもたらすと主張している。
論文 参考訳(メタデータ) (2025-02-06T21:32:07Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - AI Sustainability in Practice Part One: Foundations for Sustainable AI Projects [0.46671368497079174]
AIプロジェクトは、変革的な効果と、個人や社会に対する短期的、中長期的影響に反応する。
このワークブックは、AIサステナビリティを実践するために必要な概念とツールを提供する、ペアの最初の部分です。
論文 参考訳(メタデータ) (2024-02-19T22:52:14Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Artificial Intelligence in Sustainable Vertical Farming [0.0]
持続可能な垂直農業におけるAIの役割を包括的に探求する。
このレビューは、機械学習、コンピュータビジョン、IoT(Internet of Things)、ロボット工学を含む、AIアプリケーションの現状を合成する。
この影響は、経済的な可能性、環境への影響の低減、食料安全保障の向上など、効率の向上を超えて拡大している。
論文 参考訳(メタデータ) (2023-11-17T22:15:41Z) - Applications and Societal Implications of Artificial Intelligence in
Manufacturing: A Systematic Review [0.3867363075280544]
この研究は、AIが企業に与える影響について、以前の文献では概して楽観的な見通しがあることを示している。
この論文は、産業AIの潜在的な社会的影響に関する文脈的視点を提供するために、歴史的事例や他の例に類似している。
論文 参考訳(メタデータ) (2023-07-25T07:17:37Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Let it RAIN for Social Good [7.315761817405695]
責任のあるノルム(RAIN)フレームワークは、ハイレベルな値と責任あるアクションの間の抽象的なギャップを埋めるために提示されます。
効果的で運用可能なAI倫理により、AI技術はグローバルな持続可能な開発に向けて向けられる。
論文 参考訳(メタデータ) (2022-07-26T13:37:13Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。