論文の概要: Towards the Right Kind of Fairness in AI
- arxiv url: http://arxiv.org/abs/2102.08453v1
- Date: Tue, 16 Feb 2021 21:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:35:02.104414
- Title: Towards the Right Kind of Fairness in AI
- Title(参考訳): AIにおける公正の正しい種類に向けて
- Authors: Boris Ruf and Marcin Detyniecki
- Abstract要約: フェアネスコンパス(Fairness Compass)は、特定のシステムに対して最も適切なフェアネスメトリックを簡単かつ簡単な手順で特定するツールである。
私たちは、このプロセスの過程で各決定の背後にある推論を文書化することは、ユーザーからの信頼を構築するのに役立ちます。
- 参考スコア(独自算出の注目度): 3.723553383515688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To implement fair machine learning in a sustainable way, identifying the
right fairness definition is key. However, fairness is a concept of justice,
and various definitions exist. Some of them are in conflict with each other and
there is no uniformly accepted notion of fairness. The most appropriate
fairness definition for an artificial intelligence system is often a matter of
application and the right choice depends on ethical standards and legal
requirements. In the absence of officially binding rules, the objective of this
document is to structure the complex landscape of existing fairness
definitions. We propose the "Fairness Compass", a tool which formalises the
selection process and makes identifying the most appropriate fairness metric
for a given system a simple, straightforward procedure. We further argue that
documenting the reasoning behind the respective decisions in the course of this
process can help to build trust from the user through explaining and justifying
the implemented fairness.
- Abstract(参考訳): 持続可能な方法で公正な機械学習を実装するためには、適切な公正の定義を特定することが重要である。
しかし公正は正義の概念であり、様々な定義が存在する。
それらのいくつかは互いに対立しており、公正さの統一的な概念はありません。
人工知能システムの最も適切な公正性の定義は、しばしば応用の問題であり、正しい選択は倫理的基準と法的要件に依存する。
公式な拘束規則がない場合、この文書の目的は、既存の公正の定義の複雑な景観を構造化することである。
本研究では,選択過程を形式化し,与えられたシステムに対して最も適切な公平度尺度を簡単な手順で識別するツールであるFairness Compassを提案する。
さらに、このプロセスにおいて、各決定の背後にある推論を文書化することは、実装された公平性の説明と正当化を通じて、ユーザからの信頼を構築するのに役立つと論じる。
関連論文リスト
- FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [57.18130745705417]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Explaining how your AI system is fair [3.723553383515688]
我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
論文 参考訳(メタデータ) (2021-05-03T07:52:56Z) - Everything is Relative: Understanding Fairness with Optimal Transport [1.160208922584163]
バイアスとその構造を解釈可能かつ定量に探索できる公平性への最適輸送ベースアプローチを提案する。
我々のフレームワークは、アルゴリズムによる差別のよく知られた例を復元し、他の指標が失敗したときの不公平さを検知し、レコメンデーションの機会を探ることができる。
論文 参考訳(メタデータ) (2021-02-20T13:57:53Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z) - Abstracting Fairness: Oracles, Metrics, and Interpretability [21.59432019966861]
我々は,真理の公正さの理解を基盤とした,公正な神託から学べるものについて検討する。
我々の結果は、非常に望ましいが定義されていない分類システムの特性である解釈性(interpretablity)に影響を及ぼす。
論文 参考訳(メタデータ) (2020-04-04T03:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。