論文の概要: Uncovering Fairness through Data Complexity as an Early Indicator
- arxiv url: http://arxiv.org/abs/2504.05923v1
- Date: Tue, 08 Apr 2025 11:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:45.462032
- Title: Uncovering Fairness through Data Complexity as an Early Indicator
- Title(参考訳): 初期の指標としてのデータの複雑さによる公正さの発見
- Authors: Juliett Suárez Ferreira, Marija Slavkovik, Jorge Casillas,
- Abstract要約: 特権群と特権群の間の分類複雑性の格差が解の公平性にどのように影響するかは研究されていない。
本研究では,過去のバイアスから測定,表現バイアスまで,さまざまなバイアスを捉えるために設計された合成データセットに焦点を当てる。
次に,同団体ルールマイニングを適用し,不均等な複雑性の違いと公平性に関連する結果とを関連づけるパターンを同定する。
- 参考スコア(独自算出の注目度): 0.7783262415147651
- License:
- Abstract: Fairness constitutes a concern within machine learning (ML) applications. Currently, there is no study on how disparities in classification complexity between privileged and unprivileged groups could influence the fairness of solutions, which serves as a preliminary indicator of potential unfairness. In this work, we investigate this gap, specifically, we focus on synthetic datasets designed to capture a variety of biases ranging from historical bias to measurement and representational bias to evaluate how various complexity metrics differences correlate with group fairness metrics. We then apply association rule mining to identify patterns that link disproportionate complexity differences between groups with fairness-related outcomes, offering data-centric indicators to guide bias mitigation. Our findings are also validated by their application in real-world problems, providing evidence that quantifying group-wise classification complexity can uncover early indicators of potential fairness challenges. This investigation helps practitioners to proactively address bias in classification tasks.
- Abstract(参考訳): 公正さは機械学習(ML)アプリケーションにおける関心事である。
現在、特権群と特権群の間の分類複雑性の格差が解の公平性にどのように影響するかは研究されていないが、これは潜在的不公平性の予備的な指標となっている。
本研究では、このギャップ、具体的には、歴史的バイアスから測定、表現バイアスまで様々なバイアスを捉えるために設計された合成データセットに注目し、様々な複雑性指標の違いがグループフェアネス指標とどのように相関しているかを評価する。
次に、相関ルールマイニングを適用し、公正な結果を持つグループ間の不均等な複雑性の違いをリンクするパターンを特定し、バイアス軽減を導くためにデータ中心の指標を提供する。
また,本研究を実世界の問題に適用することにより,グループワイド分類の複雑性を定量化することで,潜在的公正性の課題の早期の指標を明らかにすることができることを示す。
この調査は、実践者が分類タスクのバイアスに積極的に対処するのに役立ちます。
関連論文リスト
- Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Correlation Clustering in Forests [8.810926150873991]
クラスタリングは、各クラスタが入力集合全体と同じ感度属性のマニフェストの分布を持つ場合、公平であると言われている。
これは、クラスタ化対象のオブジェクトが過度に、あるいは過度に表現すべきでないセンシティブな属性を持つ様々なアプリケーションによって動機付けられている。
我々は,このフェアネスの形式が抽出可能な機密属性の分布を特徴付けることができる制限付きグラフクラスを考察する。
論文 参考訳(メタデータ) (2023-02-22T11:27:06Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。