論文の概要: Metric-Free Individual Fairness with Cooperative Contextual Bandits
- arxiv url: http://arxiv.org/abs/2011.06738v1
- Date: Fri, 13 Nov 2020 03:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:20:14.757846
- Title: Metric-Free Individual Fairness with Cooperative Contextual Bandits
- Title(参考訳): 協調的文脈帯域を持つ計量自由個性
- Authors: Qian Hu, Huzefa Rangwala
- Abstract要約: グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.985752744098267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data mining algorithms are increasingly used in automated decision making
across all walks of daily life. Unfortunately, as reported in several studies
these algorithms inject bias from data and environment leading to inequitable
and unfair solutions. To mitigate bias in machine learning, different
formalizations of fairness have been proposed that can be categorized into
group fairness and individual fairness. Group fairness requires that different
groups should be treated similarly which might be unfair to some individuals
within a group. On the other hand, individual fairness requires that similar
individuals be treated similarly. However, individual fairness remains
understudied due to its reliance on problem-specific similarity metrics. We
propose a metric-free individual fairness and a cooperative contextual bandits
(CCB) algorithm. The CCB algorithm utilizes fairness as a reward and attempts
to maximize it. The advantage of treating fairness as a reward is that the
fairness criterion does not need to be differentiable. The proposed algorithm
is tested on multiple real-world benchmark datasets. The results show the
effectiveness of the proposed algorithm at mitigating bias and at achieving
both individual and group fairness.
- Abstract(参考訳): データマイニングアルゴリズムは、日々の生活を横断する自動意思決定にますます利用されている。
残念なことに、いくつかの研究で報告されたように、これらのアルゴリズムはデータと環境からバイアスを注入し、不公平で不公平な解決策につながる。
機械学習におけるバイアスを軽減するため、グループフェアネスと個人フェアネスに分類できる様々なフェアネスの形式化が提案されている。
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
一方、個々人の公平性は、同様の個人を同じように扱う必要がある。
しかし、個々の公平性は問題固有の類似度メトリクスに依存するため、未熟である。
本研究では,メトリックフリーな個人公平性と協調的コンテクストバンディット(ccb)アルゴリズムを提案する。
CCBアルゴリズムは公平性を報酬として利用し、最大化を試みる。
フェアネスを報酬として扱う利点は、フェアネス基準が差別化される必要はないことである。
提案アルゴリズムは複数の実世界のベンチマークデータセットで検証される。
その結果,提案アルゴリズムの有効性は,偏りを緩和し,個人と集団の公平性を両立させることができた。
関連論文リスト
- Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別しないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
非保護変数であるが、系統的な差異が示される要因は、公平性評価に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Within-group fairness: A guidance for more sound between-group fairness [1.675857332621569]
我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
論文 参考訳(メタデータ) (2023-01-20T00:39:19Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。