論文の概要: The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development
- arxiv url: http://arxiv.org/abs/2303.08177v1
- Date: Tue, 14 Mar 2023 18:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:52:47.063606
- Title: The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development
- Title(参考訳): Equitable AI Research Roundtable (EARR): 責任AI開発におけるコミュニティベースの意思決定に向けて
- Authors: Jamila Smith-Loud, Andrew Smart, Darlene Neal, Amber Ebinama, Eric
Corbett, Paul Nicholas, Qazi Rashid, Anne Peckham, Sarah Murphy-Gray, Nicole
Morris, Elisha Smith Arrillaga, Nicole-Marie Cotton, Emnet Almedom, Olivia
Araiza, Eliza McCullough, Abbie Langston, Christopher Nellum
- Abstract要約: The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
- 参考スコア(独自算出の注目度): 4.1986677342209004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports on our initial evaluation of The Equitable AI Research
Roundtable -- a coalition of experts in law, education, community engagement,
social justice, and technology. EARR was created in collaboration among a large
tech firm, nonprofits, NGO research institutions, and universities to provide
critical research based perspectives and feedback on technology's emergent
ethical and social harms. Through semi-structured workshops and discussions
within the large tech firm, EARR has provided critical perspectives and
feedback on how to conceptualize equity and vulnerability as they relate to AI
technology. We outline three principles in practice of how EARR has operated
thus far that are especially relevant to the concerns of the FAccT community:
how EARR expands the scope of expertise in AI development, how it fosters
opportunities for epistemic curiosity and responsibility, and that it creates a
space for mutual learning. This paper serves as both an analysis and
translation of lessons learned through this engagement approach, and the
possibilities for future research.
- Abstract(参考訳): 本稿は、法律、教育、コミュニティエンゲージメント、社会正義、テクノロジーの専門家の連合体であるThe Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、ハイテク企業、非営利団体、NGO研究機関、大学と共同で開発され、テクノロジーの創発的な倫理的・社会的害に対する重要な研究の視点とフィードバックを提供する。
大規模なIT企業における半構造化されたワークショップと議論を通じて、EARRは、AI技術に関連するエクイティと脆弱性を概念化する方法について、批判的な視点とフィードバックを提供してきた。
我々は、これまでearrがどのように運営されてきたか、特にfacctコミュニティの懸念と関係している3つの原則を概説する: earrがai開発における専門知識の範囲を拡大するか、認識論的好奇心と責任の機会をいかに育成するか、相互学習の場を作ること。
本稿では,このエンゲージメントアプローチを通じて学んだ教訓の分析と翻訳,そして今後の研究の可能性について論じる。
関連論文リスト
- The Transformative Impact of AI and Deep Learning in Business: A Literature Review [0.0]
本稿では,ビジネスのさまざまな機能領域におけるAIと深層学習の根本的役割を概観する。
医療分野、小売業と製造業、農業と農業、財政における材料的応用をカバーしている。
論文 参考訳(メタデータ) (2024-10-30T20:35:03Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Integrating ESG and AI: A Comprehensive Responsible AI Assessment Framework [15.544366555353262]
ESG-AIフレームワークは28社の企業との関わりの洞察に基づいて開発された。
これは、AIアプリケーションの環境および社会的影響の概要を提供し、投資家のようなユーザーがAI利用の物質性を評価するのに役立つ。
投資家は、構造化されたエンゲージメントと特定のリスク領域の徹底的な評価を通じて、責任あるAIに対する企業のコミットメントを評価することができる。
論文 参考訳(メタデータ) (2024-08-02T00:58:01Z) - Using Case Studies to Teach Responsible AI to Industry Practitioners [8.152080071643685]
我々は、対話型ケーススタディを用いて、組織的・実践的なエンゲージメントとRAI(Responsible AI)の先進的学習を実現する新しい利害関係者第一の教育手法を提案する。
評価の結果,ワークショップの参加者は,作業にRAIを適用することに対する理解とモチベーションに肯定的な変化があることが示唆された。
論文 参考訳(メタデータ) (2024-07-19T22:06:06Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。