論文の概要: Underrepresentation, Label Bias, and Proxies: Towards Data Bias Profiles for the EU AI Act and Beyond
- arxiv url: http://arxiv.org/abs/2507.08866v1
- Date: Wed, 09 Jul 2025 15:52:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.653846
- Title: Underrepresentation, Label Bias, and Proxies: Towards Data Bias Profiles for the EU AI Act and Beyond
- Title(参考訳): 控えめな表現、ラベルバイアス、プロキシ: EU AI ActとBeyondのためのデータバイアスプロファイルを目指して
- Authors: Marina Ceccon, Giandomenico Cornacchia, Davide Dalle Pezze, Alessandro Fabris, Gian Antonio Susto,
- Abstract要約: 我々は3つの共通のデータバイアスを示し、アルゴリズムの識別に対する個人的および共同的な影響について研究する。
我々は、特定の種類のバイアスを検出するための専用メカニズムを開発し、それをデータバイアスプロファイル(DBP)と呼ぶ予備構造に組み合わせる。
この初期定式化は、どのように異なるバイアス信号が体系的に文書化されるかという概念の証明となる。
- 参考スコア(独自算出の注目度): 42.710392315326104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Undesirable biases encoded in the data are key drivers of algorithmic discrimination. Their importance is widely recognized in the algorithmic fairness literature, as well as legislation and standards on anti-discrimination in AI. Despite this recognition, data biases remain understudied, hindering the development of computational best practices for their detection and mitigation. In this work, we present three common data biases and study their individual and joint effect on algorithmic discrimination across a variety of datasets, models, and fairness measures. We find that underrepresentation of vulnerable populations in training sets is less conducive to discrimination than conventionally affirmed, while combinations of proxies and label bias can be far more critical. Consequently, we develop dedicated mechanisms to detect specific types of bias, and combine them into a preliminary construct we refer to as the Data Bias Profile (DBP). This initial formulation serves as a proof of concept for how different bias signals can be systematically documented. Through a case study with popular fairness datasets, we demonstrate the effectiveness of the DBP in predicting the risk of discriminatory outcomes and the utility of fairness-enhancing interventions. Overall, this article bridges algorithmic fairness research and anti-discrimination policy through a data-centric lens.
- Abstract(参考訳): データに符号化された望ましくないバイアスは、アルゴリズムによる差別の重要な要因である。
その重要性は、アルゴリズムの公正性文学や、AIにおける反差別に関する法律や標準で広く認識されている。
この認識にもかかわらず、データのバイアスは未調査のままであり、その検出と緩和のための計算のベストプラクティスの開発を妨げる。
本研究では,3つの共通のデータバイアスを示し,その個人的および共同的な影響を,さまざまなデータセット,モデル,公正度尺度のアルゴリズム的識別に与える影響について検討する。
トレーニングセットにおける脆弱な集団の不足は、従来の肯定よりも差別に寄与しないが、プロキシとラベルバイアスの組み合わせは、はるかに重要である。
その結果,特定のバイアスを検出するための専用機構を開発し,それをDBP(Data Bias Profile)と呼ぶ予備構造に組み合わせた。
この初期定式化は、どのように異なるバイアス信号が体系的に文書化されるかという概念の証明となる。
人気公正データセットを用いたケーススタディを通じて、差別的結果のリスク予測におけるDBPの有効性とフェアネス強化介入の有用性を実証する。
全体として、本論文はアルゴリズムフェアネス研究と、データ中心のレンズによる差別防止政策を橋渡しする。
関連論文リスト
- Biased Heritage: How Datasets Shape Models in Facial Expression Recognition [13.77824359359967]
画像に基づく表情認識システムにおいて,データセットから訓練されたモデルへのバイアス伝搬について検討する。
本稿では,複数の階層群を有する複数クラス問題に特化して設計された新しいバイアス指標を提案する。
その結果,FERデータセットの一般的な人口収支よりも,感情特異的な人口動態パターンの防止が優先されるべきであることが示唆された。
論文 参考訳(メタデータ) (2025-03-05T12:25:22Z) - Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Measuring and Mitigating Bias for Tabular Datasets with Multiple Protected Attributes [0.0]
我々は、国籍、年齢、性別など、複数の保護された属性を含むデータセットに焦点を当てる。
新たな差別措置が導入され、研究者や実践者が基礎となるデータセットの公平性を評価するための適切な手段を選択する。
既存のバイアス緩和法であるFairDoの新たな応用について述べる。
論文 参考訳(メタデータ) (2024-05-29T17:27:08Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。