論文の概要: Group Fairness: Independence Revisited
- arxiv url: http://arxiv.org/abs/2101.02968v1
- Date: Fri, 8 Jan 2021 11:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 08:25:18.159953
- Title: Group Fairness: Independence Revisited
- Title(参考訳): グループフェアネス:独立の再訪
- Authors: Tim R\"az
- Abstract要約: 本稿では、統計パリティ(statistical parity)や人口統計パリティ(statistical parity)としても知られるグループフェアネス(group fairness)の尺度である独立に反対する議論を批判的に検討する。
独立に対する訴訟は、かなり弱い。
我々はまた、独立を支持する議論をし、公正を考慮に入れた際、それが独特な役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper critically examines arguments against independence, a measure of
group fairness also known as statistical parity and as demographic parity. In
recent discussions of fairness in computer science, some have maintained that
independence is not a suitable measure of group fairness. This position is at
least partially based on two influential papers (Dwork et al., 2012, Hardt et
al., 2016) that provide arguments against independence. We revisit these
arguments, and we find that the case against independence is rather weak. We
also give arguments in favor of independence, showing that it plays a
distinctive role in considerations of fairness. Finally, we discuss how to
balance different fairness considerations.
- Abstract(参考訳): 本稿では、統計パリティや人口統計パリティとしても知られるグループフェアネスの尺度である独立に反対する議論を批判的に検討する。
コンピュータ科学におけるフェアネスに関する最近の議論では、独立性はグループフェアネスの適切な尺度ではないと主張する者もいる。
この立場は少なくとも、独立に反対する議論を提供する2つの影響力のある論文(dwork et al., 2012 hardt et al., 2016)に基づいている。
我々はこれらの議論を再考し、独立に対する訴訟はやや弱いことに気付く。
我々はまた、独立性を支持する議論をし、公正性を考える上で、それが際立った役割を担っていることを示す。
最後に、異なる公平性を考慮したバランスをとる方法について論じる。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Non-Parametric Inference of Relational Dependence [17.76905154531867]
本研究では,関係系から引き出されたデータの独立性を推定する問題について検討する。
我々は,非観測データに対する関係独立性試験を運用するために,一貫した,非パラメトリックでスケーラブルなカーネルテストを提案する。
論文 参考訳(メタデータ) (2022-06-30T03:42:20Z) - Is calibration a fairness requirement? An argument from the point of
view of moral philosophy and decision theory [0.0]
グループキャリブレーション違反は不公平な場合もあるが、不公平な場合もある。
これは、既に文献で進歩している主張と一致しており、アルゴリズム的公正性は文脈に敏感な方法で定義されるべきである。
論文 参考訳(メタデータ) (2022-05-11T14:03:33Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - On the Moral Justification of Statistical Parity [0.0]
公正性の重要かつしばしば無視される側面は、道徳的な観点からある公正度測定をいかに正当化するかという問題である。
本研究の目的は,独立の統計的公正性基準に関連する道徳的側面を考察することである。
論文 参考訳(メタデータ) (2020-11-04T00:26:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。