論文の概要: Within-group fairness: A guidance for more sound between-group fairness
- arxiv url: http://arxiv.org/abs/2301.08375v1
- Date: Fri, 20 Jan 2023 00:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 14:08:00.887932
- Title: Within-group fairness: A guidance for more sound between-group fairness
- Title(参考訳): グループ内フェアネス:グループ間フェアネス向上のためのガイダンス
- Authors: Sara Kim, Kyusang Yu, Yongdai Kim
- Abstract要約: 我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
- 参考スコア(独自算出の注目度): 1.675857332621569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As they have a vital effect on social decision-making, AI algorithms not only
should be accurate and but also should not pose unfairness against certain
sensitive groups (e.g., non-white, women). Various specially designed AI
algorithms to ensure trained AI models to be fair between sensitive groups have
been developed. In this paper, we raise a new issue that between-group fair AI
models could treat individuals in a same sensitive group unfairly. We introduce
a new concept of fairness so-called within-group fairness which requires that
AI models should be fair for those in a same sensitive group as well as those
in different sensitive groups. We materialize the concept of within-group
fairness by proposing corresponding mathematical definitions and developing
learning algorithms to control within-group fairness and between-group fairness
simultaneously. Numerical studies show that the proposed learning algorithms
improve within-group fairness without sacrificing accuracy as well as
between-group fairness.
- Abstract(参考訳): 社会的意思決定に重大な影響を与えるため、aiアルゴリズムは正確であるだけでなく、特定の敏感なグループ(非白人女性など)に不公平をもたらすべきではない。
センシティブなグループ間で公平にトレーニングされたAIモデルを保証するために、さまざまな特別に設計されたAIアルゴリズムが開発された。
本稿では、グループ間公正なAIモデルが同一のセンシティブなグループの個人を不公平に扱うことができるという新たな問題を提起する。
我々は、同じセンシティブなグループと異なるセンシティブなグループのグループに対して、AIモデルが公平であることを要求する、いわゆる内集団フェアネスという新しい概念を導入する。
本研究では,群内フェアネスと群間フェアネスを同時に制御する学習アルゴリズムを開発することにより,群内フェアネスの概念を実現する。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
関連論文リスト
- Bridging the Fairness Divide: Achieving Group and Individual Fairness in Graph Neural Networks [9.806215623623684]
我々は、グループ内の個々人の公正という新しい概念と、グループと個人のための公正(FairGI)という新しい枠組みを提案する。
我々のアプローチは、グループフェアネスやグループ内の個人フェアネスにおいて、他の最先端モデルよりも優れているだけでなく、集団レベルの個人フェアネスにおいても優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-04-26T16:26:11Z) - A Canonical Data Transformation for Achieving Inter- and Within-group Fairness [17.820200610132265]
同一グループ内から個人間の公平性を維持するグループ内公正性の形式的定義を導入する。
本稿では,グループ間の公正度基準とグループ内公正度基準の両方を満たすための事前処理フレームワークを提案する。
この枠組みをCompASリスクアセスメントとLaw Schoolのデータセットに適用し、その性能を正規化に基づく2つの手法と比較する。
論文 参考訳(メタデータ) (2023-10-23T17:00:20Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。