論文の概要: Does the End Justify the Means? On the Moral Justification of
Fairness-Aware Machine Learning
- arxiv url: http://arxiv.org/abs/2202.08536v1
- Date: Thu, 17 Feb 2022 09:26:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:55:41.229071
- Title: Does the End Justify the Means? On the Moral Justification of
Fairness-Aware Machine Learning
- Title(参考訳): 終わりは意味を正当化するのか?
フェアネスを考慮した機械学習のモラル正当性について
- Authors: Hilde Weerts, Lamb\`er Royakkers, Mykola Pechenizkiy
- Abstract要約: フェアネスを意識した機械学習(fair-ml)アルゴリズムが豊富にあるにもかかわらず、これらのアルゴリズムがどのようにフェアネスメトリクスを強制するかという道徳的な正当化は、ほとんど探索されていない。
フェアネスの指標を正当化できる3つの命題を提示する。
我々は,アルゴリズムに固有の2つの最適化戦略,グループ固有の決定しきい値とランダム化された決定しきい値に焦点をあてる。
- 参考スコア(独自算出の注目度): 6.327435698167334
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite an abundance of fairness-aware machine learning (fair-ml) algorithms,
the moral justification of how these algorithms enforce fairness metrics is
largely unexplored. The goal of this paper is to elicit the moral implications
of a fair-ml algorithm. To this end, we first consider the moral justification
of the fairness metrics for which the algorithm optimizes. We present an
extension of previous work to arrive at three propositions that can justify the
fairness metrics. Different from previous work, our extension highlights that
the consequences of predicted outcomes are important for judging fairness. We
draw from the extended framework and empirical ethics to identify moral
implications of the fair-ml algorithm. We focus on the two optimization
strategies inherent to the algorithm: group-specific decision thresholds and
randomized decision thresholds. We argue that the justification of the
algorithm can differ depending on one's assumptions about the (social) context
in which the algorithm is applied - even if the associated fairness metric is
the same. Finally, we sketch paths for future work towards a more complete
evaluation of fair-ml algorithms, beyond their direct optimization objectives.
- Abstract(参考訳): フェアネス認識機械学習(fair-ml)アルゴリズムは豊富であるが、これらのアルゴリズムがどのようにフェアネスメトリクスを強制するかの道徳的正当性はほとんど未解明である。
本研究の目的は,fair-mlアルゴリズムの道徳的意味を引き出すことである。
この目的のために、まずアルゴリズムが最適化する公平度指標の道徳的正当性を考察する。
我々は、フェアネスのメトリクスを正当化できる3つの命題に到達するために、以前の作業の拡張を示す。
これまでの作業とは違って,予測結果の結果が公平さを判断する上で重要であることを強調する。
我々は、fair-mlアルゴリズムの道徳的意味を識別するために、拡張された枠組みと経験的倫理から引き出す。
我々は、アルゴリズムに固有の2つの最適化戦略に焦点を当てる:グループ固有の決定しきい値とランダム化された決定しきい値。
我々は、アルゴリズムの正当化は、アルゴリズムが適用される(社会的)コンテキストについての仮定によって、たとえ関連するフェアネス計量が同じであっても、異なる可能性があると主張する。
最後に,fair-mlアルゴリズムのより完全な評価に向けた今後の研究の道筋を,直接最適化の目的を超えてスケッチする。
関連論文リスト
- Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。