論文の概要: AI Fairness in Practice
- arxiv url: http://arxiv.org/abs/2403.14636v1
- Date: Mon, 19 Feb 2024 23:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:52:54.853510
- Title: AI Fairness in Practice
- Title(参考訳): AIフェアネスの実践
- Authors: David Leslie, Cami Rincon, Morgan Briggs, Antonella Perini, Smera Jayadeva, Ann Borda, SJ Bennett, Christopher Burr, Mhairi Aitken, Michael Katell, Claudia Fischer, Janis Wong, Ismael Kherroubi Garcia,
- Abstract要約: フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
- 参考スコア(独自算出の注目度): 0.46671368497079174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reaching consensus on a commonly accepted definition of AI Fairness has long been a central challenge in AI ethics and governance. There is a broad spectrum of views across society on what the concept of fairness means and how it should best be put to practice. In this workbook, we tackle this challenge by exploring how a context-based and society-centred approach to understanding AI Fairness can help project teams better identify, mitigate, and manage the many ways that unfair bias and discrimination can crop up across the AI project workflow. We begin by exploring how, despite the plurality of understandings about the meaning of fairness, priorities of equality and non-discrimination have come to constitute the broadly accepted core of its application as a practical principle. We focus on how these priorities manifest in the form of equal protection from direct and indirect discrimination and from discriminatory harassment. These elements form ethical and legal criteria based upon which instances of unfair bias and discrimination can be identified and mitigated across the AI project workflow. We then take a deeper dive into how the different contexts of the AI project lifecycle give rise to different fairness concerns. This allows us to identify several types of AI Fairness (Data Fairness, Application Fairness, Model Design and Development Fairness, Metric-Based Fairness, System Implementation Fairness, and Ecosystem Fairness) that form the basis of a multi-lens approach to bias identification, mitigation, and management. Building on this, we discuss how to put the principle of AI Fairness into practice across the AI project workflow through Bias Self-Assessment and Bias Risk Management as well as through the documentation of metric-based fairness criteria in a Fairness Position Statement.
- Abstract(参考訳): AIフェアネスの定義に対するコンセンサスの獲得は、長い間、AI倫理とガバナンスにおける中心的な課題であった。
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い視点がある。
このワークブックでは、AIフェアネスを理解するためのコンテキストベースで社会中心のアプローチが、プロジェクトチームがAIプロジェクトワークフロー全体にわたって不公平な偏見と差別を拾い上げる多くの方法を特定し、緩和し、管理する上で、どのように役立つかを探求することで、この問題に取り組みます。
公平さの意味に関する複数の理解にもかかわらず、平等と非差別の優先順位が、その応用の広く受け入れられた核を実践原理としてどのように構成するかを探求することから始まる。
我々は、これらの優先事項が、直接的および間接的な差別と差別的嫌がらせから平等に保護される形でどのように現れるかに焦点を当てる。
これらの要素は、不公平な偏見と差別の事例を識別し、AIプロジェクトワークフロー全体で緩和できる倫理的および法的基準を形成する。
次に、AIプロジェクトのライフサイクルの異なるコンテキストが、さまざまな公正な懸念を引き起こす方法について、より深く調査します。
これにより、バイアス識別、緩和、管理に対するマルチレンズアプローチの基礎となる、いくつかのタイプのAIフェアネス(データフェアネス、アプリケーションフェアネス、モデル設計と開発フェアネス、メトリックベースのフェアネス、システム実装フェアネス、エコシステムフェアネス)を特定できます。
これに基づいて、我々は、バイアス自己評価とバイアスリスク管理を通じて、AIプロジェクトのワークフロー全体にわたってAIフェアネスの原則を実践する方法、およびフェアネスポジションステートメントにおけるメトリックベースのフェアネス基準の文書を通して議論する。
関連論文リスト
- Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Fairness in AI: challenges in bridging the gap between algorithms and law [2.651076518493962]
実世界のシステムやユースケースにおける公平性の定義とアルゴリズムの仕様と採用のためのベストプラクティスと戦略を特定します。
実世界のユースケースアプリケーションに対して,特定の公平性の定義を選択する際に考慮する必要がある,一連のコア基準を導入する。
論文 参考訳(メタデータ) (2024-04-30T08:59:00Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Explaining how your AI system is fair [3.723553383515688]
我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
論文 参考訳(メタデータ) (2021-05-03T07:52:56Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。