論文の概要: Measuring and Mitigating Bias for Tabular Datasets with Multiple Protected Attributes
- arxiv url: http://arxiv.org/abs/2405.19300v1
- Date: Wed, 29 May 2024 17:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 16:02:26.453527
- Title: Measuring and Mitigating Bias for Tabular Datasets with Multiple Protected Attributes
- Title(参考訳): 複数の保護属性を持つ語彙データセットに対するバイアスの測定と緩和
- Authors: Manh Khoi Duong, Stefan Conrad,
- Abstract要約: 我々は、国籍、年齢、性別など、複数の保護された属性を含むデータセットに焦点を当てる。
新たな差別措置が導入され、研究者や実践者が適切な措置を選択するのを導く。
既存のバイアス緩和法であるFairDoの新たな応用について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivated by the recital (67) of the current corrigendum of the AI Act in the European Union, we propose and present measures and mitigation strategies for discrimination in tabular datasets. We specifically focus on datasets that contain multiple protected attributes, such as nationality, age, and sex. This makes measuring and mitigating bias more challenging, as many existing methods are designed for a single protected attribute. This paper comes with a twofold contribution: Firstly, new discrimination measures are introduced. These measures are categorized in our framework along with existing ones, guiding researchers and practitioners in choosing the right measure to assess the fairness of the underlying dataset. Secondly, a novel application of an existing bias mitigation method, FairDo, is presented. We show that this strategy can mitigate any type of discrimination, including intersectional discrimination, by transforming the dataset. By conducting experiments on real-world datasets (Adult, Bank, Compas), we demonstrate that de-biasing datasets with multiple protected attributes is achievable. Further, the transformed fair datasets do not compromise any of the tested machine learning models' performances significantly when trained on these datasets compared to the original datasets. Discrimination was reduced by up to 83% in our experimentation. For most experiments, the disparity between protected groups was reduced by at least 7% and 27% on average. Generally, the findings show that the mitigation strategy used is effective, and this study contributes to the ongoing discussion on the implementation of the European Union's AI Act.
- Abstract(参考訳): 欧州連合におけるAI法(AI Act)の現在のコリガンダ(67)のリサイタル(67)に触発された我々は、表付きデータセットの識別のための対策と緩和戦略を提案し、提示する。
具体的には、国籍、年齢、性別など、複数の保護された属性を含むデータセットに焦点を当てます。
これにより、多くの既存のメソッドが単一の保護された属性のために設計されているため、バイアスの測定と緩和がより困難になる。
まず、新たな差別対策が導入される。
これらの尺度は、既存の指標とともに我々のフレームワークに分類され、基礎となるデータセットの公平性を評価するための適切な尺度を選択するために研究者や実践者を導く。
第二に、既存のバイアス緩和法であるFairDoの新たな応用について述べる。
この戦略は、データセットを変換することで、交叉差別を含むあらゆる種類の差別を緩和できることを示す。
実世界のデータセット(Adult, Bank, Compas)で実験を行うことで、複数の保護属性を持つデバイアスデータセットが実現可能であることを示す。
さらに、変換されたフェアデータセットは、元のデータセットと比較してこれらのデータセットでトレーニングされた場合、テストされた機械学習モデルのパフォーマンスを著しく損なわない。
差別は実験で最大83%減少した。
ほとんどの実験では、保護群間の格差は平均で7%から27%減った。
本研究は、欧州連合(EU)のAI法の実施に関する議論に寄与するものである。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Casual Conversations v2: Designing a large consent-driven dataset to
measure algorithmic bias and robustness [34.435124846961415]
Metaは、カテゴリの包括的なリストを持つ大規模な同意駆動データセットの収集に取り組んでいる。
本稿では,このようなカテゴリの設計とCasual Conversations v2のサブカテゴリについて述べる。
論文 参考訳(メタデータ) (2022-11-10T19:06:21Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Learning from Discriminatory Training Data [2.1869017389979266]
監視された学習システムは、歴史的データを用いて訓練され、もしデータが差別によって汚染された場合、保護されたグループに対して差別を意図せずに学習する可能性がある。
差別的データセットの訓練にもかかわらず、公正な学習手法は、公正なテストデータセットで良好に機能することを提案する。
論文 参考訳(メタデータ) (2019-12-17T18:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。