論文の概要: Integrating ESG and AI: A Comprehensive Responsible AI Assessment Framework
- arxiv url: http://arxiv.org/abs/2408.00965v2
- Date: Tue, 6 Aug 2024 00:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 16:27:42.373465
- Title: Integrating ESG and AI: A Comprehensive Responsible AI Assessment Framework
- Title(参考訳): ESGとAIの統合: 総合責任AIアセスメントフレームワーク
- Authors: Sung Une Lee, Harsha Perera, Yue Liu, Boming Xia, Qinghua Lu, Liming Zhu, Jessica Cairns, Moana Nottage,
- Abstract要約: ESG-AIフレームワークは28社の企業との関わりの洞察に基づいて開発された。
これは、AIアプリケーションの環境および社会的影響の概要を提供し、投資家のようなユーザーがAI利用の物質性を評価するのに役立つ。
投資家は、構造化されたエンゲージメントと特定のリスク領域の徹底的な評価を通じて、責任あるAIに対する企業のコミットメントを評価することができる。
- 参考スコア(独自算出の注目度): 15.544366555353262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is a widely developed and adopted technology across entire industry sectors. Integrating environmental, social, and governance (ESG) considerations with AI investments is crucial for ensuring ethical and sustainable technological advancement. Particularly from an investor perspective, this integration not only mitigates risks but also enhances long-term value creation by aligning AI initiatives with broader societal goals. Yet, this area has been less explored in both academia and industry. To bridge the gap, we introduce a novel ESG-AI framework, which is developed based on insights from engagements with 28 companies and comprises three key components. The framework provides a structured approach to this integration, developed in collaboration with industry practitioners. The ESG-AI framework provides an overview of the environmental and social impacts of AI applications, helping users such as investors assess the materiality of AI use. Moreover, it enables investors to evaluate a company's commitment to responsible AI through structured engagements and thorough assessment of specific risk areas. We have publicly released the framework and toolkit in April 2024, which has received significant attention and positive feedback from the investment community. This paper details each component of the framework, demonstrating its applicability in real-world contexts and its potential to guide ethical AI investments.
- Abstract(参考訳): 人工知能(AI)は、業界全体で広く開発され、採用されている技術である。
環境、社会、ガバナンス(ESG)とAI投資を統合することは、倫理的かつ持続可能な技術進歩の確保に不可欠である。
特に投資家の視点では、この統合はリスクを軽減するだけでなく、AIイニシアティブをより広範な社会的目標と整合させることで、長期的な価値創造を促進する。
しかし、この領域は学術と産業の両方であまり調査されていない。
このギャップを埋めるために,28社の企業との関わりから洞察を得て開発され,3つの重要なコンポーネントから構成されるESG-AIフレームワークを導入する。
このフレームワークは、業界関係者とのコラボレーションによって開発された、この統合に対する構造化されたアプローチを提供する。
ESG-AIフレームワークは、AIアプリケーションの環境および社会的影響の概要を提供する。
さらに、投資家は、構造化されたエンゲージメントと特定のリスク領域の徹底的な評価を通じて、責任あるAIに対する企業のコミットメントを評価することができる。
我々は2024年4月にフレームワークとツールキットを公開し、投資コミュニティから大きな注目を集め、肯定的なフィードバックを受けています。
本稿では、現実世界の文脈における適用可能性とその倫理的AI投資を導く可能性を示す、フレームワークの各コンポーネントについて詳述する。
関連論文リスト
- Achieving Responsible AI through ESG: Insights and Recommendations from Industry Engagement [15.544366555353262]
本研究では、主要な企業が責任あるAI(RAI)と環境、社会、ガバナンス(ESG)の目標をどのように一致させるかを検討する。
RAIとESGの実践との間には強いつながりがあるが、内部のRAI政策と公開との間には大きなギャップがある。
我々は、RAI戦略の強化、透明性の重視、クロスファンクショナルなコラボレーション、既存のESGフレームワークへのシームレスな統合を推奨します。
論文 参考訳(メタデータ) (2024-08-30T05:48:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - AI in ESG for Financial Institutions: An Industrial Survey [4.893954917947095]
本稿では,ESGフレームワークの活性化におけるAIの必要性と影響を明らかにするために,産業環境を調査した。
調査では、分析能力、リスク評価、顧客エンゲージメント、報告精度など、ESGの主要な3つの柱にまたがるAIアプリケーションを分類した。
この論文は、ESG関連の銀行プロセスにおけるAI展開の倫理的側面を強調し、責任と持続可能なAIの衝動についても論じている。
論文 参考訳(メタデータ) (2024-02-03T02:14:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Towards Artificial General Intelligence (AGI) in the Internet of Things
(IoT): Opportunities and Challenges [55.82853124625841]
人工知能(Artificial General Intelligence, AGI)は、人間の認知能力でタスクを理解し、学習し、実行することができる能力を持つ。
本研究は,モノのインターネットにおけるAGIの実現に向けた機会と課題を探究する。
AGIに注入されたIoTの応用スペクトルは広く、スマートグリッド、住宅環境、製造、輸送から環境モニタリング、農業、医療、教育まで幅広い領域をカバーしている。
論文 参考訳(メタデータ) (2023-09-14T05:43:36Z) - The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development [4.1986677342209004]
The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
論文 参考訳(メタデータ) (2023-03-14T18:57:20Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。