論文の概要: Causal Multi-Level Fairness
- arxiv url: http://arxiv.org/abs/2010.07343v3
- Date: Wed, 12 May 2021 18:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:00:40.700136
- Title: Causal Multi-Level Fairness
- Title(参考訳): 因果的多レベル公平性
- Authors: Vishwali Mhasawade and Rumi Chunara
- Abstract要約: 因果推論からツールを用いてマルチレベルフェアネスの問題を定式化する。
マクロレベルの微妙な属性が考慮されない場合、不公平な不公平さを示すことによって問題の重要性を示す。
- 参考スコア(独自算出の注目度): 4.937180141196767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic systems are known to impact marginalized groups severely, and
more so, if all sources of bias are not considered. While work in algorithmic
fairness to-date has primarily focused on addressing discrimination due to
individually linked attributes, social science research elucidates how some
properties we link to individuals can be conceptualized as having causes at
macro (e.g. structural) levels, and it may be important to be fair to
attributes at multiple levels. For example, instead of simply considering race
as a causal, protected attribute of an individual, the cause may be distilled
as perceived racial discrimination an individual experiences, which in turn can
be affected by neighborhood-level factors. This multi-level conceptualization
is relevant to questions of fairness, as it may not only be important to take
into account if the individual belonged to another demographic group, but also
if the individual received advantaged treatment at the macro-level. In this
paper, we formalize the problem of multi-level fairness using tools from causal
inference in a manner that allows one to assess and account for effects of
sensitive attributes at multiple levels. We show importance of the problem by
illustrating residual unfairness if macro-level sensitive attributes are not
accounted for, or included without accounting for their multi-level nature.
Further, in the context of a real-world task of predicting income based on
macro and individual-level attributes, we demonstrate an approach for
mitigating unfairness, a result of multi-level sensitive attributes.
- Abstract(参考訳): アルゴリズムシステムは、すべてのバイアス源が考慮されていない場合、限界化されたグループに深刻な影響を与えることが知られている。
アルゴリズム的公平性の研究は、主に個人的属性による差別に対処することに重点を置いているが、社会科学の研究は、我々が個人と結びつくいくつかの特性が、マクロ(例えば構造的)レベルで原因を持つものとしてどのように概念化できるかを解明し、複数のレベルで属性に公平であることは重要であるかもしれない。
例えば、単に人種を個人の因果的かつ保護された属性として考えるのではなく、その原因は個々の経験において認識された人種的差別として蒸留される可能性がある。
この多段階概念化は公平性の問題に関係しており、ある個人が別の人口集団に属している場合だけでなく、その個人がマクロレベルで有利な待遇を受けた場合も考慮に入れることが重要である。
本稿では, 因果推論によるツールを用いたマルチレベルフェアネスの問題を, 複数のレベルにおけるセンシティブな属性の影響を評価し, 評価することができる方法で定式化する。
マクロレベルの微妙な属性が考慮されない場合や,多レベルの性質を考慮せずに含められた場合,不公平さを指摘することによって,問題の重要性を示す。
さらに,マクロ属性と個人属性に基づく収入予測という実世界の課題の文脈において,多レベル機密属性の結果として生じる不公平さの軽減手法を示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Group fairness without demographics using social networks [29.073125057536014]
グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
論文 参考訳(メタデータ) (2023-05-19T00:45:55Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Fair Tree Learning [0.15229257192293202]
様々な最適化基準は、分類性能と公正度を組み合わせている。
現在の公正決定木法は、分類タスクと公正度測定の両方において、一定の閾値を最適化するのみである。
そこで本研究では,一様人口分布パリティと呼ばれるしきい値非依存の公平度尺度と,SCAFF – Splitting Criterion AUC for Fairnessと題する分割基準を提案する。
論文 参考訳(メタデータ) (2021-10-18T13:40:25Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。