論文の概要: On Learning Fairness and Accuracy on Multiple Subgroups
- arxiv url: http://arxiv.org/abs/2210.10837v2
- Date: Tue, 29 Nov 2022 15:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:56:19.087468
- Title: On Learning Fairness and Accuracy on Multiple Subgroups
- Title(参考訳): 複数部分群の公平性と正確性について
- Authors: Changjian Shui, Gezheng Xu, Qi Chen, Jiaqi Li, Charles Ling, Tal
Arbel, Boyu Wang, Christian Gagn\'e
- Abstract要約: 両レベル対象として定式化することで,すべての部分群に対して公正な予測器を学習する原理的手法を提案する。
具体的には、サブグループ固有の予測器は、少量のデータと公正な予測器を通して下位層で学習される。
上位レベルでは、フェア予測器は全てのサブグループ固有の予測器に近接するように更新される。
- 参考スコア(独自算出の注目度): 9.789933013990966
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose an analysis in fair learning that preserves the utility of the
data while reducing prediction disparities under the criteria of group
sufficiency. We focus on the scenario where the data contains multiple or even
many subgroups, each with limited number of samples. As a result, we present a
principled method for learning a fair predictor for all subgroups via
formulating it as a bilevel objective. Specifically, the subgroup specific
predictors are learned in the lower-level through a small amount of data and
the fair predictor. In the upper-level, the fair predictor is updated to be
close to all subgroup specific predictors. We further prove that such a bilevel
objective can effectively control the group sufficiency and generalization
error. We evaluate the proposed framework on real-world datasets. Empirical
evidence suggests the consistently improved fair predictions, as well as the
comparable accuracy to the baselines.
- Abstract(参考訳): 本稿では,データの有用性を保ちつつ,グループ満足度基準による予測格差を低減した公平学習の分析を提案する。
データは複数のサブグループあるいはそれ以上のサブグループを含み、それぞれが限られた数のサンプルを持つシナリオに焦点を当てる。
そこで本論文では,全部分群に対する公平な予測を2段階の目的として定式化することで学習する原則付き手法を提案する。
具体的には、サブグループ固有の予測器は、少量のデータと公正な予測器を通して下位層で学習される。
上層部では、フェア予測器が全てのサブグループ固有の予測器に近付くように更新される。
さらに,このような二レベル目標が,集団満足度と一般化誤差を効果的に制御できることを実証する。
提案フレームワークを実世界のデータセット上で評価する。
実証的な証拠は、公平な予測を一貫して改善し、ベースラインと同等の正確さを示唆している。
関連論文リスト
- How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Fair Classification with Partial Feedback: An Exploration-Based Data Collection Approach [15.008626822593]
多くの予測的文脈において、真の結果は過去に肯定的に分類されたサンプルに対してのみ観察される。
我々は、利用可能なデータを用いて分類器を訓練し、探索戦略のファミリーを持つアプローチを提案する。
提案手法は,収集した結果データの品質を継続的に向上し,すべてのグループに対して真の正の比率を向上することを示す。
論文 参考訳(メタデータ) (2024-02-17T17:09:19Z) - A structured regression approach for evaluating model performance across intersectional subgroups [53.91682617836498]
分散評価(disaggregated evaluation)は、AIフェアネスアセスメントにおける中心的なタスクであり、AIシステムのさまざまなサブグループ間でのパフォーマンスを測定することを目的としている。
非常に小さなサブグループであっても,信頼性の高いシステム性能推定値が得られることを示す。
論文 参考訳(メタデータ) (2024-01-26T14:21:45Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Fairness Aware Counterfactuals for Subgroups [8.593488857185678]
本稿では,サブグループのフェアネスを監査するフレームワークであるFACTS(Fairness Aware Counterfactuals for Subgroups)を紹介する。
我々は、特定のサブグループにおける個人の困難さの異なる側面を定式化し、談話を達成することを目的としている。
我々は、言論を達成するためのコストに対して、完全に不可避ではないが頑健な部分群フェアネスの概念を導入する。
論文 参考訳(メタデータ) (2023-06-26T18:03:56Z) - Leveraging Structure for Improved Classification of Grouped Biased Data [8.121462458089143]
データポイントが自然にグループ化されるアプリケーションに対する半教師付きバイナリ分類を検討する。
我々は、この構造を明示的に活用し、最適、グループ対応、確率出力の分類器を学習する半教師付きアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-07T15:18:21Z) - Addressing Missing Sources with Adversarial Support-Matching [8.53946780558779]
そこで本研究では,データ内の2段階階層の2段階に,データの欠如が関係しているシナリオについて検討する。
アルゴリズム的公正性から保護された群の概念に触発され、この第2階層によって彫られた分割を「部分群」と呼ぶ。
私たちは、サブグループに不変な表現を学ぶために、"deployment set"と呼ばれる追加で多様だがラベルなしのデータセットを使用します。
論文 参考訳(メタデータ) (2022-03-24T16:19:19Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Representation Matters: Assessing the Importance of Subgroup Allocations
in Training Data [85.43008636875345]
訓練データにおける多様な表現は,サブグループのパフォーマンス向上と集団レベルの目標達成の鍵である。
分析と実験は、データセット構成がパフォーマンスにどのように影響するかを説明し、既存のデータにおけるトレンドとドメイン知識を用いて、意図的かつ客観的なデータセット設計を導くのに役立つ構成結果を提供する。
論文 参考訳(メタデータ) (2021-03-05T00:27:08Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。