論文の概要: Does the End Justify the Means? On the Moral Justification of
Fairness-Aware Machine Learning
- arxiv url: http://arxiv.org/abs/2202.08536v2
- Date: Wed, 8 Feb 2023 12:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:00:54.358044
- Title: Does the End Justify the Means? On the Moral Justification of
Fairness-Aware Machine Learning
- Title(参考訳): 終わりは意味を正当化するのか?
フェアネスを考慮した機械学習のモラル正当性について
- Authors: Hilde Weerts, Lamb\`er Royakkers, Mykola Pechenizkiy
- Abstract要約: 公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
本稿では,その最適化のためのフェアmlアルゴリズムの利用の道徳的意味について考察する。
- 参考スコア(独自算出の注目度): 6.327435698167334
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fairness-aware machine learning (fair-ml) techniques are algorithmic
interventions designed to ensure that individuals who are affected by the
predictions of a machine learning model are treated fairly, typically measured
in terms of a quantitative fairness metric. Despite the multitude of fairness
metrics and fair-ml algorithms, there is still little guidance on the
suitability of different approaches in practice. In this paper, we present a
framework for moral reasoning about the justification of fairness metrics and
explore the moral implications of the use of fair-ml algorithms that optimize
for them. In particular, we argue that whether a distribution of outcomes is
fair, depends not only on the cause of inequalities but also on what moral
claims decision subjects have to receive a particular benefit or avoid a
burden. We use our framework to analyze the suitability of two fairness metrics
under different circumstances. Subsequently, we explore moral arguments that
support or reject the use of the fair-ml algorithm introduced by Hardt et al.
(2016). We argue that under very specific circumstances, particular metrics
correspond to a fair distribution of burdens and benefits. However, we also
illustrate that enforcing a fairness metric by means of a fair-ml algorithm may
not result in the fair distribution of outcomes and can have several
undesirable side effects. We end with a call for a more holistic evaluation of
fair-ml algorithms, beyond their direct optimization objectives.
- Abstract(参考訳): fairness-aware machine learning (fair-ml) テクニックは、機械学習モデルの予測によって影響を受ける個人が公平に扱われるように設計されたアルゴリズム的介入である。
公平度メトリクスや公正なmlアルゴリズムは多々あるが、実際には異なるアプローチの適合性についてのガイダンスは少ない。
本稿では,公正度尺度の正当性に関する道徳的推論の枠組みを提案し,その最適化のための公正度アルゴリズムの利用の道徳的意味を考察する。
特に、成果の分布が公平であるか否かは、不等式の原因だけでなく、モラルクレームの決定対象が特定の利益を受けるか、あるいは負担を避ける必要があるかにも依存する。
我々は、異なる状況下での2つの公正度メトリクスの適合性を分析するために、我々のフレームワークを使用します。
その後、Hardt et al. (2016)によって導入されたfair-mlアルゴリズムを支持または拒否する道徳的議論を考察する。
非常に具体的な状況下では、特定のメトリクスは、負担と利益の公平な分配に対応しています。
しかし、fair-mlアルゴリズムを用いてフェアネスメトリックを強制しても結果の公平な分布は得られず、いくつかの好ましくない副作用が生じる可能性がある。
最終的には、直接最適化の目的を超えて、より包括的なフェアmlアルゴリズムの評価を求める。
関連論文リスト
- Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。