論文の概要: Towards Substantive Conceptions of Algorithmic Fairness: Normative
Guidance from Equal Opportunity Doctrines
- arxiv url: http://arxiv.org/abs/2207.02912v2
- Date: Mon, 11 Jul 2022 00:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:45:39.051632
- Title: Towards Substantive Conceptions of Algorithmic Fairness: Normative
Guidance from Equal Opportunity Doctrines
- Title(参考訳): アルゴリズム的公平性の実証的概念に向けて--等機会主義からの規範的指導
- Authors: Falaah Arif Khan, Eleni Manis and Julia Stoyanovich
- Abstract要約: 我々は、政治哲学から平等なオッポチュニティの教義を用いて、アルゴリズム的公正性の異なる概念に埋め込まれた規範的判断を明確にする。
我々はこの分類学を用いて、公正競争の異なる概念の相容れない結果の道徳的解釈を提供する。
- 参考スコア(独自算出の注目度): 6.751310968561177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work we use Equal Oppportunity (EO) doctrines from political
philosophy to make explicit the normative judgements embedded in different
conceptions of algorithmic fairness. We contrast formal EO approaches that
narrowly focus on fair contests at discrete decision points, with substantive
EO doctrines that look at people's fair life chances more holistically over the
course of a lifetime. We use this taxonomy to provide a moral interpretation of
the impossibility results as the incompatibility between different conceptions
of a fair contest -- foward-looking versus backward-looking -- when people do
not have fair life chances. We use this result to motivate substantive
conceptions of algorithmic fairness and outline two plausible procedures based
on the luck-egalitarian doctrine of EO, and Rawls's principle of fair equality
of opportunity.
- Abstract(参考訳): 本研究では、政治哲学からの平等オッポチュニティ(EO)の教義を用いて、アルゴリズム的公正性の異なる概念に埋め込まれた規範的判断を明示する。
我々は、個別の意思決定点における公正な競争に狭く焦点をあてる形式的EOアプローチと、人々の公正な生活の機会を生涯を通してより均等に見る実質的なEOドクトリンとを対比する。
我々はこの分類法を用いて、不合理な結果の道徳的解釈を、人々が公正な人生のチャンスを持っていないときに、公正なコンテスト(前向きと後向き)の異なる概念の相違として提供する。
我々はこの結果を用いて、アルゴリズム的公正の実質的な概念を動機付け、EOの運楽主義的教義とRawlsの機会平等の原理に基づく2つの妥当な手続きを概説する。
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Fairness as Equality of Opportunity: Normative Guidance from Political
Philosophy [8.228275343025462]
政治哲学から機会平等主義(EOP)を用いた公正理想の分類法を導入する。
我々は、哲学におけるそれらの概念と、公正な機械学習における体系化の提案を明確にする。
フェアネス・アズ・エOPフレームワークを使用して、哲学的な観点から不合理な結果を再解釈します。
論文 参考訳(メタデータ) (2021-06-15T16:07:58Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。