論文の概要: Group fairness without demographics using social networks
- arxiv url: http://arxiv.org/abs/2305.11361v1
- Date: Fri, 19 May 2023 00:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 16:51:06.284067
- Title: Group fairness without demographics using social networks
- Title(参考訳): ソーシャルネットワークを用いた人口統計のないグループフェアネス
- Authors: David Liu, Virginie Do, Nicolas Usunier, Maximilian Nickel
- Abstract要約: グループフェアネス(英: Group Fairness)は、人種、性別、障害などのセンシティブな属性に基づいて、個人の好ましくない扱いを防止するための一般的なアプローチである。
そこで本稿では, センシティブな属性に依存しないフェアネスの「グループフリー」尺度を提案する。
- 参考スコア(独自算出の注目度): 29.073125057536014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group fairness is a popular approach to prevent unfavorable treatment of
individuals based on sensitive attributes such as race, gender, and disability.
However, the reliance of group fairness on access to discrete group information
raises several limitations and concerns, especially with regard to privacy,
intersectionality, and unforeseen biases. In this work, we propose a
"group-free" measure of fairness that does not rely on sensitive attributes
and, instead, is based on homophily in social networks, i.e., the common
property that individuals sharing similar attributes are more likely to be
connected. Our measure is group-free as it avoids recovering any form of group
memberships and uses only pairwise similarities between individuals to define
inequality in outcomes relative to the homophily structure in the network. We
theoretically justify our measure by showing it is commensurate with the notion
of additive decomposability in the economic inequality literature and also
bound the impact of non-sensitive confounding attributes. Furthermore, we apply
our measure to develop fair algorithms for classification, maximizing
information access, and recommender systems. Our experimental results show that
the proposed approach can reduce inequality among protected classes without
knowledge of sensitive attribute labels. We conclude with a discussion of the
limitations of our approach when applied in real-world settings.
- Abstract(参考訳): 集団公平は、人種、性別、障害といった繊細な属性に基づく個人の不利な扱いを防ぐ一般的なアプローチである。
しかしながら、離散的なグループ情報へのアクセスに対するグループフェアネスの依存は、特にプライバシー、交叉性、予期せぬバイアスに関して、いくつかの制限と懸念を引き起こす。
本研究では, 属性に依存せず, その代わりに, ソーシャルネットワークのホモフィリーに基づく「グループフリー」なフェアネス尺度を提案する。
この尺度はグループメンバーシップの任意の形態の回復を回避し、ネットワークのホモフィア構造に対する結果の不等式を定義するために個人間のペアワイズな類似性のみを使用するため、グループフリーである。
理論的には、経済不平等文学における加法的分解可能性の概念と相容れないことを示し、また、非感性共役属性の影響を限定して、我々の測度を正当化する。
さらに,分類,情報アクセスの最大化,レコメンダシステムのための公平なアルゴリズムの開発に本手法を適用した。
提案手法は,属性ラベルの知識がなくても保護クラス間の不平等を低減できることを示す。
最後に、実際の環境で適用した場合のアプローチの制限について論じる。
関連論文リスト
- Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Causal Multi-Level Fairness [4.937180141196767]
因果推論からツールを用いてマルチレベルフェアネスの問題を定式化する。
マクロレベルの微妙な属性が考慮されない場合、不公平な不公平さを示すことによって問題の重要性を示す。
論文 参考訳(メタデータ) (2020-10-14T18:26:17Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。