論文の概要: Towards the Right Kind of Fairness in AI
- arxiv url: http://arxiv.org/abs/2102.08453v1
- Date: Tue, 16 Feb 2021 21:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:35:02.104414
- Title: Towards the Right Kind of Fairness in AI
- Title(参考訳): AIにおける公正の正しい種類に向けて
- Authors: Boris Ruf and Marcin Detyniecki
- Abstract要約: フェアネスコンパス(Fairness Compass)は、特定のシステムに対して最も適切なフェアネスメトリックを簡単かつ簡単な手順で特定するツールである。
私たちは、このプロセスの過程で各決定の背後にある推論を文書化することは、ユーザーからの信頼を構築するのに役立ちます。
- 参考スコア(独自算出の注目度): 3.723553383515688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To implement fair machine learning in a sustainable way, identifying the
right fairness definition is key. However, fairness is a concept of justice,
and various definitions exist. Some of them are in conflict with each other and
there is no uniformly accepted notion of fairness. The most appropriate
fairness definition for an artificial intelligence system is often a matter of
application and the right choice depends on ethical standards and legal
requirements. In the absence of officially binding rules, the objective of this
document is to structure the complex landscape of existing fairness
definitions. We propose the "Fairness Compass", a tool which formalises the
selection process and makes identifying the most appropriate fairness metric
for a given system a simple, straightforward procedure. We further argue that
documenting the reasoning behind the respective decisions in the course of this
process can help to build trust from the user through explaining and justifying
the implemented fairness.
- Abstract(参考訳): 持続可能な方法で公正な機械学習を実装するためには、適切な公正の定義を特定することが重要である。
しかし公正は正義の概念であり、様々な定義が存在する。
それらのいくつかは互いに対立しており、公正さの統一的な概念はありません。
人工知能システムの最も適切な公正性の定義は、しばしば応用の問題であり、正しい選択は倫理的基準と法的要件に依存する。
公式な拘束規則がない場合、この文書の目的は、既存の公正の定義の複雑な景観を構造化することである。
本研究では,選択過程を形式化し,与えられたシステムに対して最も適切な公平度尺度を簡単な手順で識別するツールであるFairness Compassを提案する。
さらに、このプロセスにおいて、各決定の背後にある推論を文書化することは、実装された公平性の説明と正当化を通じて、ユーザからの信頼を構築するのに役立つと論じる。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Explaining how your AI system is fair [3.723553383515688]
我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
論文 参考訳(メタデータ) (2021-05-03T07:52:56Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z) - Abstracting Fairness: Oracles, Metrics, and Interpretability [21.59432019966861]
我々は,真理の公正さの理解を基盤とした,公正な神託から学べるものについて検討する。
我々の結果は、非常に望ましいが定義されていない分類システムの特性である解釈性(interpretablity)に影響を及ぼす。
論文 参考訳(メタデータ) (2020-04-04T03:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。