論文の概要: Optimal Fair Aggregation of Crowdsourced Noisy Labels using Demographic Parity Constraints
- arxiv url: http://arxiv.org/abs/2601.23221v1
- Date: Fri, 30 Jan 2026 17:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.592319
- Title: Optimal Fair Aggregation of Crowdsourced Noisy Labels using Demographic Parity Constraints
- Title(参考訳): デモグラフィックパリティ制約を用いたクラウドソース型ノイズラベルの最適フェアアグリゲーション
- Authors: Gabriel Singer, Samuel Gruffaz, Olivier Vo Van, Nicolas Vayatis, Argyris Kalogeratos,
- Abstract要約: 本稿では,$varepsilon$-fairnessフレームワーク内のクラウドソース集約手法の公正度を解析する。
集約されたコンセンサスのフェアネスギャップは、解釈可能な条件下では、グランドトゥルースのフェアネスギャップに指数関数的に収束することを示す。
基底真理自体はいまだ不公平である可能性があるので、最先端のマルチクラスフェアネス後処理アルゴリズムを一般化する。
- 参考スコア(独自算出の注目度): 4.133245571268133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As acquiring reliable ground-truth labels is usually costly, or infeasible, crowdsourcing and aggregation of noisy human annotations is the typical resort. Aggregating subjective labels, though, may amplify individual biases, particularly regarding sensitive features, raising fairness concerns. Nonetheless, fairness in crowdsourced aggregation remains largely unexplored, with no existing convergence guarantees and only limited post-processing approaches for enforcing $\varepsilon$-fairness under demographic parity. We address this gap by analyzing the fairness s of crowdsourced aggregation methods within the $\varepsilon$-fairness framework, for Majority Vote and Optimal Bayesian aggregation. In the small-crowd regime, we derive an upper bound on the fairness gap of Majority Vote in terms of the fairness gaps of the individual annotators. We further show that the fairness gap of the aggregated consensus converges exponentially fast to that of the ground-truth under interpretable conditions. Since ground-truth itself may still be unfair, we generalize a state-of-the-art multiclass fairness post-processing algorithm from the continuous to the discrete setting, which enforces strict demographic parity constraints to any aggregation rule. Experiments on synthetic and real datasets demonstrate the effectiveness of our approach and corroborate the theoretical insights.
- Abstract(参考訳): 信頼できる地道ラベルの取得は、通常費用がかかるか、不可能であるので、ノイズの多い人間のアノテーションのクラウドソーシングと集約が典型的な方法である。
しかし、主観的ラベルの集約は個人の偏見、特に繊細な特徴を増幅し、公平さを懸念する可能性がある。
それでも、クラウドソーシングによるアグリゲーションの公正性はほとんど解明されておらず、既存のコンバージェンス保証は存在せず、人口順に$\varepsilon$-fairnessを強制するための限定的な後処理アプローチのみである。
このギャップは、Majority VoteとOptimal Bayesianアグリゲーションのために、$\varepsilon$-fairnessフレームワーク内のクラウドソースのアグリゲーションメソッドのフェアネスsを分析することで解決する。
小キャラ系では、各アノテータのフェアネスギャップの観点から、マジョリティ・ボイトのフェアネスギャップの上界を導出する。
さらに、集約されたコンセンサスのフェアネスギャップは、解釈可能な条件下では、基底トルスのフェアネスギャップと指数関数的に高速に収束することを示す。
根本真実そのものはいまだ不公平である可能性があるので、我々は最先端のマルチクラスフェアネス後処理アルゴリズムを連続的な状態から離散的な状態まで一般化し、任意のアグリゲーションルールに厳密な人口統計学的パーティ制約を課す。
合成および実データセットの実験は、我々のアプローチの有効性を示し、理論的な洞察を裏付ける。
関連論文リスト
- Fairness for the People, by the People: Minority Collective Action [50.29077265863936]
機械学習モデルは、トレーニングデータに存在するバイアスを保存し、一部の少数民族を不公平に扱う。
我々は,企業のトレーニングプロセスを変更することなく,公正性を高めるために,自らのデータを戦略的に再ラベルする調整されたマイノリティグループを提案する。
以上の結果から,少数民族のサブグループは,全体の予測誤差に少なからぬ影響で,不公平さを著しく低減できることが明らかとなった。
論文 参考訳(メタデータ) (2025-08-21T09:09:39Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Bounding and Approximating Intersectional Fairness through Marginal
Fairness [7.954748673441148]
機械学習における差別は、しばしば複数の次元に沿って生じる。
すなわち、どの部分群も差別されないことを保証することが望ましい。
論文 参考訳(メタデータ) (2022-06-12T19:53:34Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。