論文の概要: Towards Substantive conceptions of Algorithmic Fairness: Normative
guidance from Equal Opportunity doctrines
- arxiv url: http://arxiv.org/abs/2207.02912v1
- Date: Wed, 6 Jul 2022 18:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:32:18.713911
- Title: Towards Substantive conceptions of Algorithmic Fairness: Normative
guidance from Equal Opportunity doctrines
- Title(参考訳): アルゴリズム的公平性の実証的概念に向けて--等機会主義からの規範的指導
- Authors: Falaah Arif Khan, Eleni Manis and Julia Stoyanovich
- Abstract要約: 我々は、政治哲学から平等なオッポチュニティの教義を用いて、アルゴリズム的公正性の異なる概念に埋め込まれた規範的判断を明確にする。
我々はこの分類学を用いて、公正競争の異なる概念の相容れない結果の道徳的解釈を提供する。
- 参考スコア(独自算出の注目度): 6.751310968561177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work we use Equal Oppportunity (EO) doctrines from political
philosophy to make explicit the normative judgements embedded in different
conceptions of algorithmic fairness. We contrast formal EO approaches that
narrowly focus on fair contests at discrete decision points, with substantive
EO doctrines that look at people's fair life chances more holistically over the
course of a lifetime. We use this taxonomy to provide a moral interpretation of
the impossibility results as the incompatibility between different conceptions
of a fair contest -- foward-looking versus backward-looking -- when people do
not have fair life chances. We use this result to motivate substantive
conceptions of algorithmic fairness and outline two plausible procedures based
on the luck-egalitarian doctrine of EO, and Rawls's principle of fair equality
of opportunity.
- Abstract(参考訳): 本研究では、政治哲学からの平等オッポチュニティ(EO)の教義を用いて、アルゴリズム的公正性の異なる概念に埋め込まれた規範的判断を明示する。
我々は、個別の意思決定点における公正な競争に狭く焦点をあてる形式的EOアプローチと、人々の公正な生活の機会を生涯を通してより均等に見る実質的なEOドクトリンとを対比する。
我々はこの分類法を用いて、不合理な結果の道徳的解釈を、人々が公正な人生のチャンスを持っていないときに、公正なコンテスト(前向きと後向き)の異なる概念の相違として提供する。
我々はこの結果を用いて、アルゴリズム的公正の実質的な概念を動機付け、EOの運楽主義的教義とRawlsの機会平等の原理に基づく2つの妥当な手続きを概説する。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [57.18130745705417]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Impossibility of What? Formal and Substantive Equality in Algorithmic
Fairness [3.42658286826597]
アルゴリズムの公正性に対する支配的な「形式的」アプローチは、平等を追求する枠組みとして不十分である、と私は主張する。
社会階層に反するアルゴリズムフェアネスに対する「実質的」アプローチを提案する。
形式的および実体的アルゴリズム的公正の区別は、各アプローチの「公正の実証可能性」に対する応答によって実証される。
論文 参考訳(メタデータ) (2021-07-09T19:29:57Z) - Fairness as Equality of Opportunity: Normative Guidance from Political
Philosophy [8.228275343025462]
政治哲学から機会平等主義(EOP)を用いた公正理想の分類法を導入する。
我々は、哲学におけるそれらの概念と、公正な機械学習における体系化の提案を明確にする。
フェアネス・アズ・エOPフレームワークを使用して、哲学的な観点から不合理な結果を再解釈します。
論文 参考訳(メタデータ) (2021-06-15T16:07:58Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。