論文の概要: Investigating Practices and Opportunities for Cross-functional
Collaboration around AI Fairness in Industry Practice
- arxiv url: http://arxiv.org/abs/2306.06542v1
- Date: Sat, 10 Jun 2023 23:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:27:14.041723
- Title: Investigating Practices and Opportunities for Cross-functional
Collaboration around AI Fairness in Industry Practice
- Title(参考訳): 産業におけるAIフェアネスをめぐるクロスファンクショナルコラボレーションの実践と機会
- Authors: Wesley Hanwen Deng, Nur Yildirim, Monica Chang, Motahhare Eslami, Ken
Holstein, Michael Madaio
- Abstract要約: 新たな研究機関は、AI設計と開発における公平性の問題に対処する上で、非効果的なクロスファンクショナルコラボレーションが大きな障壁であることを示している。
我々は17社からさまざまな役割を担った23人の業界実践者を対象に,一連のインタビューとデザインワークショップを開催した。
実践者は、役割間のAIフェアネスに関する理解、文脈化、評価の摩擦を克服するために、ブリッジ作業に従事していることがわかった。
- 参考スコア(独自算出の注目度): 10.979734542685447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An emerging body of research indicates that ineffective cross-functional
collaboration -- the interdisciplinary work done by industry practitioners
across roles -- represents a major barrier to addressing issues of fairness in
AI design and development. In this research, we sought to better understand
practitioners' current practices and tactics to enact cross-functional
collaboration for AI fairness, in order to identify opportunities to support
more effective collaboration. We conducted a series of interviews and design
workshops with 23 industry practitioners spanning various roles from 17
companies. We found that practitioners engaged in bridging work to overcome
frictions in understanding, contextualization, and evaluation around AI
fairness across roles. In addition, in organizational contexts with a lack of
resources and incentives for fairness work, practitioners often piggybacked on
existing requirements (e.g., for privacy assessments) and AI development norms
(e.g., the use of quantitative evaluation metrics), although they worry that
these tactics may be fundamentally compromised. Finally, we draw attention to
the invisible labor that practitioners take on as part of this bridging and
piggybacking work to enact interdisciplinary collaboration for fairness. We
close by discussing opportunities for both FAccT researchers and AI
practitioners to better support cross-functional collaboration for fairness in
the design and development of AI systems.
- Abstract(参考訳): 新たな研究機関は、AI設計と開発における公平性の問題に対処する上で、非効果的なクロスファンクショナルコラボレーション(業界関係者による役割横断の学際的な作業)が大きな障壁であることを示している。
本研究では,AIフェアネスのためのクロスファンクショナルコラボレーションを実現するための実践者の現在の実践と戦術をより理解し,より効果的なコラボレーションを支援する機会を特定することを目的とした。
17社からさまざまな役割を担った23の業界実践者を対象に,一連のインタビューとデザインワークショップを開催した。
実践者は、役割間のAIフェアネスに関する理解、文脈化、評価の摩擦を克服するために、ブリッジ作業に従事していることがわかった。
さらに、フェアネスワークのためのリソースやインセンティブが不足している組織的文脈では、実践者はしばしば既存の要件(プライバシー評価など)とAI開発規範(量的評価基準の使用など)に悩まされるが、これらの戦術が根本的に損なわれる恐れがある。
最後に,このブリッジングとピギーバックの作業の一環として実践者が引き受ける,不公平のための学際的なコラボレーションを実践する見えない労働に注意を向ける。
FAccTの研究者とAI実践者の両方が、AIシステムの設計と開発における公正性のためのクロスファンクショナルなコラボレーションをよりよくサポートする機会について、議論を締めくくった。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - Assessing the Fairness of AI Systems: AI Practitioners' Processes,
Challenges, and Needs for Support [18.148737010217953]
私たちは、実践者のプロセス、課題、サポートの必要性を特定するために、AI実践者とのインタビューとワークショップを行っています。
パフォーマンス指標を選択し、最も関連する直接的な利害関係者や人口統計グループを特定する際に、実践者が課題に直面していることに気付きました。
私たちは、直接利害関係者との関わりの欠如、疎外されたグループよりも顧客を優先するビジネスインペラティブ、大規模にAIシステムをデプロイする動機から生じる公正な作業への影響を特定します。
論文 参考訳(メタデータ) (2021-12-10T17:14:34Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Open Problems in Cooperative AI [21.303564222227727]
研究の目的は、協力の問題の多くの側面を研究し、これらの問題を解決するためにAIを革新することである。
本研究は,マルチエージェントシステム,ゲーム理論と社会的選択,ヒューマンマシンインタラクションとアライメント,自然言語処理,ソーシャルツールとプラットフォームの構築など,現在進行中の作業を統合する。
論文 参考訳(メタデータ) (2020-12-15T21:39:50Z) - Progressing Towards Responsible AI [2.191505742658975]
学会と人工知能に関する天文台(OSAI)は、AI4EUプロジェクトから発展した。
OSAIは、AI(倫理的、法的、社会的、経済的、文化的)の幅広い問題に対するリフレクションを刺激することを目指している
論文 参考訳(メタデータ) (2020-08-11T09:46:00Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。