論文の概要: The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development
- arxiv url: http://arxiv.org/abs/2303.08177v1
- Date: Tue, 14 Mar 2023 18:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 15:52:47.063606
- Title: The Equitable AI Research Roundtable (EARR): Towards Community-Based
Decision Making in Responsible AI Development
- Title(参考訳): Equitable AI Research Roundtable (EARR): 責任AI開発におけるコミュニティベースの意思決定に向けて
- Authors: Jamila Smith-Loud, Andrew Smart, Darlene Neal, Amber Ebinama, Eric
Corbett, Paul Nicholas, Qazi Rashid, Anne Peckham, Sarah Murphy-Gray, Nicole
Morris, Elisha Smith Arrillaga, Nicole-Marie Cotton, Emnet Almedom, Olivia
Araiza, Eliza McCullough, Abbie Langston, Christopher Nellum
- Abstract要約: The Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、大手テック企業、非営利団体、NGO研究機関、大学と共同で設立された。
FAccTコミュニティの懸念に特に関係するEARRの運用方法に関する3つの原則を概説する。
- 参考スコア(独自算出の注目度): 4.1986677342209004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper reports on our initial evaluation of The Equitable AI Research
Roundtable -- a coalition of experts in law, education, community engagement,
social justice, and technology. EARR was created in collaboration among a large
tech firm, nonprofits, NGO research institutions, and universities to provide
critical research based perspectives and feedback on technology's emergent
ethical and social harms. Through semi-structured workshops and discussions
within the large tech firm, EARR has provided critical perspectives and
feedback on how to conceptualize equity and vulnerability as they relate to AI
technology. We outline three principles in practice of how EARR has operated
thus far that are especially relevant to the concerns of the FAccT community:
how EARR expands the scope of expertise in AI development, how it fosters
opportunities for epistemic curiosity and responsibility, and that it creates a
space for mutual learning. This paper serves as both an analysis and
translation of lessons learned through this engagement approach, and the
possibilities for future research.
- Abstract(参考訳): 本稿は、法律、教育、コミュニティエンゲージメント、社会正義、テクノロジーの専門家の連合体であるThe Equitable AI Research Roundtableの最初の評価について報告する。
EARRは、ハイテク企業、非営利団体、NGO研究機関、大学と共同で開発され、テクノロジーの創発的な倫理的・社会的害に対する重要な研究の視点とフィードバックを提供する。
大規模なIT企業における半構造化されたワークショップと議論を通じて、EARRは、AI技術に関連するエクイティと脆弱性を概念化する方法について、批判的な視点とフィードバックを提供してきた。
我々は、これまでearrがどのように運営されてきたか、特にfacctコミュニティの懸念と関係している3つの原則を概説する: earrがai開発における専門知識の範囲を拡大するか、認識論的好奇心と責任の機会をいかに育成するか、相互学習の場を作ること。
本稿では,このエンゲージメントアプローチを通じて学んだ教訓の分析と翻訳,そして今後の研究の可能性について論じる。
関連論文リスト
- Incentive Compatibility for AI Alignment in Sociotechnical Systems:
Positions and Prospects [11.086872298007835]
既存の方法論は主に技術的側面に焦点を当てており、しばしばAIシステムの複雑な社会技術的性質を無視している。
Incentive Compatibility Sociotechnical Alignment Problem (ICSAP)
ICを実現するための古典的なゲーム問題として,機構設計,契約理論,ベイズ的説得の3つを論じ,ICSAP解決の視点,可能性,課題について論じる。
論文 参考訳(メタデータ) (2024-02-20T10:52:57Z) - Responsible developments and networking research: a reflection beyond a
paper ethical statement [0.0]
ネットワーク研究の具体的な事例に焦点を当てる。
我々は,コミュニティの技術的実現と,テクノ中心のコントリビューションを超えてその出現を反映する。
特に、最近異なる文脈で開発された2つのフレームワークに関する議論を構造化し、コンピュータ関連分野の実践者が直面しているエンゲージメントと責任の感覚を記述する。
論文 参考訳(メタデータ) (2024-02-01T09:14:19Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。