論文の概要: Fairness for the People, by the People: Minority Collective Action
- arxiv url: http://arxiv.org/abs/2508.15374v1
- Date: Thu, 21 Aug 2025 09:09:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.253913
- Title: Fairness for the People, by the People: Minority Collective Action
- Title(参考訳): 人民の公正性:少数派集団行動
- Authors: Omri Ben-Dov, Samira Samadi, Amartya Sanyal, Alexandru Ţifrea,
- Abstract要約: 機械学習モデルは、トレーニングデータに存在するバイアスを保存し、一部の少数民族を不公平に扱う。
我々は,企業のトレーニングプロセスを変更することなく,公正性を高めるために,自らのデータを戦略的に再ラベルする調整されたマイノリティグループを提案する。
以上の結果から,少数民族のサブグループは,全体の予測誤差に少なからぬ影響で,不公平さを著しく低減できることが明らかとなった。
- 参考スコア(独自算出の注目度): 50.29077265863936
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models often preserve biases present in training data, leading to unfair treatment of certain minority groups. Despite an array of existing firm-side bias mitigation techniques, they typically incur utility costs and require organizational buy-in. Recognizing that many models rely on user-contributed data, end-users can induce fairness through the framework of Algorithmic Collective Action, where a coordinated minority group strategically relabels its own data to enhance fairness, without altering the firm's training process. We propose three practical, model-agnostic methods to approximate ideal relabeling and validate them on real-world datasets. Our findings show that a subgroup of the minority can substantially reduce unfairness with a small impact on the overall prediction error.
- Abstract(参考訳): 機械学習モデルは、トレーニングデータに存在するバイアスを保存し、一部の少数民族を不公平に扱う。
既存のファームサイドのバイアス軽減テクニックにもかかわらず、彼らは通常、ユーティリティコストを発生させ、組織的な購入を必要とします。
多くのモデルがユーザの分散したデータに依存していることを認識し、エンドユーザはアルゴリズム的集団行動(英語版)の枠組みを通じて公正性を誘導することができる。
そこで本研究では,現実のデータセット上で理想的レバーベリングを近似し,検証するための3つの実用的モデルに依存しない手法を提案する。
以上の結果から,少数民族のサブグループは,全体の予測誤差に少なからぬ影響で,不公平さを著しく低減できることが明らかとなった。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Mitigating Group Bias in Federated Learning: Beyond Local Fairness [0.6882042556551609]
本研究では,グローバルモデルフェアネスと局所モデルフェアネスの関係について検討する。
本稿では, ペナル化された経験的損失を直接最小化する, グローバルフェアトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-17T03:28:19Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Inclusive GAN: Improving Data and Minority Coverage in Generative Models [101.67587566218928]
データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
論文 参考訳(メタデータ) (2020-04-07T13:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。