論文の概要: GFLC: Graph-based Fairness-aware Label Correction for Fair Classification
- arxiv url: http://arxiv.org/abs/2506.15620v1
- Date: Wed, 18 Jun 2025 16:51:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.744087
- Title: GFLC: Graph-based Fairness-aware Label Correction for Fair Classification
- Title(参考訳): GFLC:フェア分類のためのグラフベースフェアネス対応ラベル補正
- Authors: Modar Sulaiman, Kallol Roy,
- Abstract要約: グラフベースのFairness-Aware Label Correction (GFLC) は、データセットの人口密度を保ちながらラベルノイズを補正する効率的な方法である。
提案手法は, 予測信頼度測定, リッチフロー最適化グラフによるグラフベース正規化, 人口統計学的パーティインセンティブの3つの重要な要素を組み合わせる。
- 参考スコア(独自算出の注目度): 0.03683202928838613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in machine learning (ML) has a critical importance for building trustworthy machine learning system as artificial intelligence (AI) systems increasingly impact various aspects of society, including healthcare decisions and legal judgments. Moreover, numerous studies demonstrate evidence of unfair outcomes in ML and the need for more robust fairness-aware methods. However, the data we use to train and develop debiasing techniques often contains biased and noisy labels. As a result, the label bias in the training data affects model performance and misrepresents the fairness of classifiers during testing. To tackle this problem, our paper presents Graph-based Fairness-aware Label Correction (GFLC), an efficient method for correcting label noise while preserving demographic parity in datasets. In particular, our approach combines three key components: prediction confidence measure, graph-based regularization through Ricci-flow-optimized graph Laplacians, and explicit demographic parity incentives. Our experimental findings show the effectiveness of our proposed approach and show significant improvements in the trade-off between performance and fairness metrics compared to the baseline.
- Abstract(参考訳): 機械学習(ML)の公正性は、人工知能(AI)システムが医療決定や法的判断など社会の様々な側面に影響を及ぼすにつれて、信頼できる機械学習システムを構築する上で重要である。
さらに、MLにおける不公平な結果の証拠や、より堅牢な公平な手法の必要性を実証する研究も多い。
しかしながら、デバイアスのテクニックを訓練し、開発するために使用するデータには、バイアスのあるノイズの多いラベルがしばしば含まれます。
その結果、トレーニングデータのラベルバイアスがモデル性能に影響を与え、テスト中の分類器の公平さを誤って表現する。
そこで本研究では,グラフに基づくFairness-aware Label Correction (GFLC) を提案する。
特に、予測信頼度測定、リッチフロー最適化グラフラプラシアンのグラフに基づく正規化、明示的な人口統計学的パーティインセンティブの3つの重要な要素を組み合わせる。
実験の結果,提案手法の有効性が示され,ベースラインと比較すると,性能と公平性の指標とのトレードオフが著しく改善された。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Learn to be Fair without Labels: a Distribution-based Learning Framework for Fair Ranking [1.8577028544235155]
本研究では,未利用の公正度ラベルを対象の公正度分布に置き換えることにより,ラベルを必要としない分布ベースフェアラーニングフレームワーク(DLF)を提案する。
提案手法は,フェアネス関連トレードオフの制御性を高めつつ,フェアネス性能を向上する。
論文 参考訳(メタデータ) (2024-05-28T03:49:04Z) - Systematic analysis of the impact of label noise correction on ML
Fairness [0.0]
偏りのあるデータセットで学習したモデルの公平性を確保するため,ラベルノイズ補正手法の有効性を実証的に評価する手法を開発した。
その結果,ハイブリッドラベル雑音補正法は,予測性能と公平性との最良のトレードオフを実現することが示唆された。
論文 参考訳(メタデータ) (2023-06-28T08:08:14Z) - FITNESS: A Causal De-correlation Approach for Mitigating Bias in Machine
Learning Software [6.4073906779537095]
バイアスデータセットは不公平で潜在的に有害な結果をもたらす可能性がある。
本稿では,感性特徴とラベルの因果関係を関連づけたバイアス緩和手法を提案する。
我々のキーとなる考え方は、因果関係の観点からそのような効果を非相関化することで、モデルが繊細な特徴に基づいて予測することを避けることである。
論文 参考訳(メタデータ) (2023-05-23T06:24:43Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fair Active Learning [15.313223110223941]
アクティブラーニングは、ラベル付け予算内でオラクルを対話的にクエリすることで、正確な分類器を構築するための有望なアプローチである。
我々は、モデル精度と公平性のバランスをとるためにラベル付けすべきデータポイントを慎重に選択するフェアアクティブラーニングのためのアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-06-20T17:00:02Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Fair Active Learning [15.313223110223941]
機械学習モデルが差別を伝播しないことが重要である。
アクティブラーニングは、ラベル付け予算内でオラクルを対話的にクエリすることで、正確な分類器を構築するための有望なアプローチである。
我々は、モデル精度と公平性のバランスをとるためにラベル付けすべきデータポイントを慎重に選択するフェアアクティブラーニングのためのアルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-01-06T22:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。