論文の概要: People are not coins. Morally distinct types of predictions necessitate
different fairness constraints
- arxiv url: http://arxiv.org/abs/2204.10305v3
- Date: Mon, 23 May 2022 17:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:24:23.111084
- Title: People are not coins. Morally distinct types of predictions necessitate
different fairness constraints
- Title(参考訳): 人々はコインではありません。
異なる公正性制約を必要とするモーラルな異なる予測型
- Authors: Eleonora Vigano', Corinna Hertweck, Christoph Heitz, and Michele Loi
- Abstract要約: 最近の論文では、機械学習文献で議論されているグループフェアネスの制約のほとんどは、予測の公正性に必要な条件ではないと論じられている。
我々は、人間グループに基づく実践と、一人の人のデータに基づく実践との間に道徳的に健全な区別があることを論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent paper (Hedden 2021) has argued that most of the group fairness
constraints discussed in the machine learning literature are not necessary
conditions for the fairness of predictions, and hence that there are no genuine
fairness metrics. This is proven by discussing a special case of a fair
prediction. In our paper, we show that Hedden 's argument does not hold for the
most common kind of predictions used in data science, which are about people
and based on data from similar people; we call these human-group-based
practices. We argue that there is a morally salient distinction between
human-group-based practices and those that are based on data of only one
person, which we call human-individual-based practices. Thus, what may be a
necessary condition for the fairness of human-group-based practices may not be
a necessary condition for the fairness of human-individual-based practices, on
which Hedden 's argument is based. Accordingly, the group fairness metrics
discussed in the machine learning literature may still be relevant for most
applications of prediction-based decision making.
- Abstract(参考訳): 最近の論文(Hedden 2021)では、機械学習の文献で議論されているグループフェアネスの制約のほとんどは、予測の公平性に必要な条件ではなく、真のフェアネスの指標がないと主張している。
これは公正な予測の特別な場合について議論することで証明される。
本稿では,ヘドデンの主張が,人間に関するデータと類似する人のデータに基づいて,データサイエンスで用いられる最も一般的な予測には当てはまらないことを示す。
我々は、人間グループベースの実践と、人間個人ベースの実践と呼ぶ1人のデータに基づく実践との間に道徳的に健全な区別があることを論じる。
したがって、人間集団に基づく実践の公平性に必要な条件は、Heddenの主張に基づく人間個人による実践の公正性に必要な条件ではないかもしれない。
したがって、機械学習の文献で議論されたグループフェアネスのメトリクスは、予測に基づく意思決定のほとんどの応用にまだ関係があるかもしれない。
関連論文リスト
- Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - On the Independence of Association Bias and Empirical Fairness in
Language Models [0.0]
関連性バイアスと経験的公正性は独立可能であることを示す。
我々は,最も広く使用されている言語モデルに対して,バイアス指標と公平度指標の間に相関関係がないという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-04-20T08:27:21Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - The Possibility of Fairness: Revisiting the Impossibility Theorem in
Practice [5.175941513195566]
非互換な公正性制約を満たすようなモデルの大規模な集合を同定することは可能であることを示す。
私たちは、実践者が、いつ、そして、どのようにして、複数の基準に沿った公平性を達成できるかを理解するためのツールとガイダンスを提供します。
論文 参考訳(メタデータ) (2023-02-13T13:29:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。