論文の概要: Fairness without Demographics through Learning Graph of Gradients
- arxiv url: http://arxiv.org/abs/2412.03706v1
- Date: Wed, 04 Dec 2024 20:35:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:42:31.120405
- Title: Fairness without Demographics through Learning Graph of Gradients
- Title(参考訳): グラディエントグラフの学習によるデモグラフィーなしの公正性
- Authors: Yingtao Luo, Zhixun Li, Qiang Liu, Jun Zhu,
- Abstract要約: 勾配と群間の相関がグループフェアネスの同定と改善に役立つことを示す。
提案手法はノイズに対して頑健であり,全体の精度を過度に低下させることなく,公平性を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 22.260763111752805
- License:
- Abstract: Machine learning systems are notoriously prone to biased predictions about certain demographic groups, leading to algorithmic fairness issues. Due to privacy concerns and data quality problems, some demographic information may not be available in the training data and the complex interaction of different demographics can lead to a lot of unknown minority subpopulations, which all limit the applicability of group fairness. Many existing works on fairness without demographics assume the correlation between groups and features. However, we argue that the model gradients are also valuable for fairness without demographics. In this paper, we show that the correlation between gradients and groups can help identify and improve group fairness. With an adversarial weighting architecture, we construct a graph where samples with similar gradients are connected and learn the weights of different samples from it. Unlike the surrogate grouping methods that cluster groups from features and labels as proxy sensitive attribute, our method leverages the graph structure as a soft grouping mechanism, which is much more robust to noises. The results show that our method is robust to noise and can improve fairness significantly without decreasing the overall accuracy too much.
- Abstract(参考訳): 機械学習システムは、特定の人口集団に関する偏見のある予測をしがちで、アルゴリズムの公平性の問題に繋がる。
プライバシーの懸念とデータ品質の問題により、いくつかの人口統計情報はトレーニングデータでは利用できない可能性があり、異なる人口統計の複雑な相互作用は、多くの未知の少数民族の集団に繋がる可能性があり、いずれもグループフェアネスの適用性を制限している。
人口統計のないフェアネスに関する多くの既存の研究は、グループと特徴の相関を前提としている。
しかし、モデル勾配は、人口統計学を伴わない公平性にも価値があると論じる。
本稿では,勾配と群間の相関がグループフェアネスの同定と改善に役立つことを示す。
逆重み付けアーキテクチャを用いて、類似の勾配を持つサンプルが連結されたグラフを構築し、そこから異なるサンプルの重みを学習する。
提案手法は,特徴やラベルからグループをプロキシセンシティブな属性としてクラスタリングするサロゲートグルーピング法とは異なり,ソフトグルーピング機構としてグラフ構造を活用し,ノイズに対してより堅牢である。
その結果,本手法はノイズに対して頑健であり,全体の精度を過度に低下させることなく,公平性を著しく向上させることができることがわかった。
関連論文リスト
- Migrate Demographic Group For Fair GNNs [23.096452685455134]
グラフニューラルネットワーク(GNN)は,グラフ学習の性能が優れているため,多くのシナリオに適用されている。
FairMigrationは2つのトレーニングステージで構成されている。最初の段階では、GNNはパーソナライズされた自己教師型学習によって最初に最適化される。
第2段階では、新しい人口集団は凍結し、新しい人口集団と敵対訓練の制約の下で教師付き学習を行う。
論文 参考訳(メタデータ) (2023-06-07T07:37:01Z) - FairGen: Towards Fair Graph Generation [76.34239875010381]
フェアネスを考慮したグラフ生成モデルFairGenを提案する。
我々のモデルはラベルインフォームドグラフ生成モジュールと公正表現学習モジュールを共同で訓練する。
Webベースのグラフを含む7つの実世界のデータセットの実験結果は、FairGenが最先端のグラフ生成モデルと同等のパフォーマンスを得ることを示した。
論文 参考訳(メタデータ) (2023-03-30T23:30:42Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Outlier-Robust Group Inference via Gradient Space Clustering [50.87474101594732]
既存のメソッドは、最悪のグループのパフォーマンスを改善することができるが、それらは、しばしば高価で入手できないグループアノテーションを必要とする。
モデルパラメータの勾配の空間にデータをクラスタリングすることで,アウトレーヤの存在下でグループアノテーションを学習する問題に対処する。
そこで我々は,DBSCANのような標準クラスタリング手法に適合するように,マイノリティグループや外れ値に関する情報を保存しながら,勾配空間内のデータがより単純な構造を持つことを示す。
論文 参考訳(メタデータ) (2022-10-13T06:04:43Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fair Community Detection and Structure Learning in Heterogeneous
Graphical Models [8.643517734716607]
確率的グラフィカルモデルにおけるコミュニティ構造の推定は、ノードが人口統計特性を持つ場合の公平性制約とは一致しないかもしれない。
本稿では、公平なグラフィカルモデル選択のための新しい$ell_$-regularized pseudo-likelihoodアプローチを定義する。
論文 参考訳(メタデータ) (2021-12-09T18:58:36Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。