論文の概要: A survey on datasets for fairness-aware machine learning
- arxiv url: http://arxiv.org/abs/2110.00530v1
- Date: Fri, 1 Oct 2021 16:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 16:56:57.609522
- Title: A survey on datasets for fairness-aware machine learning
- Title(参考訳): 公正な機械学習のためのデータセットに関する調査
- Authors: Tai Le Quy, Arjun Roy, Vasileios Iosifidis, Eirini Ntoutsi
- Abstract要約: 多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
- 参考スコア(独自算出の注目度): 6.962333053044713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As decision-making increasingly relies on machine learning and (big) data,
the issue of fairness in data-driven AI systems is receiving increasing
attention from both research and industry. A large variety of fairness-aware
machine learning solutions have been proposed which propose fairness-related
interventions in the data, learning algorithms and/or model outputs. However, a
vital part of proposing new approaches is evaluating them empirically on
benchmark datasets that represent realistic and diverse settings. Therefore, in
this paper, we overview real-world datasets used for fairness-aware machine
learning. We focus on tabular data as the most common data representation for
fairness-aware machine learning. We start our analysis by identifying
relationships among the different attributes, particularly w.r.t. protected
attributes and class attributes, using a Bayesian network. For a deeper
understanding of bias and fairness in the datasets, we investigate the
interesting relationships using exploratory analysis.
- Abstract(参考訳): 意思決定は機械学習と(大きな)データにますます依存しているため、データ駆動型AIシステムの公正性の問題は、研究と産業の両方から注目を集めている。
データ、学習アルゴリズム、および/またはモデル出力にフェアネスに関連する介入を提案する、さまざまなフェアネス対応機械学習ソリューションが提案されている。
しかし、新しいアプローチを提案する上で重要な部分は、現実的で多様な設定を表すベンチマークデータセットでそれらを実証的に評価することである。
そこで本稿では,フェアネス認識機械学習に使用される実世界のデータセットについて概説する。
公正な機械学習のための最も一般的なデータ表現として表型データに焦点を当てる。
我々はベイズネットワークを用いて,異なる属性,特にw.r.t. protected属性とクラス属性間の関係を同定し,分析を開始する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Analyzing Fairness of Computer Vision and Natural Language Processing Models [1.0923877073891446]
機械学習(ML)アルゴリズムは、医療、金融、教育、法執行など、さまざまな分野における意思決定において重要な役割を果たす。
広く採用されているにもかかわらず、これらのシステムは潜在的なバイアスや公平性の問題のために倫理的・社会的懸念を提起する。
本研究では,非構造化データセットに適用したコンピュータビジョンと自然言語処理(NLP)モデルの公平性の評価と改善に焦点を当てた。
論文 参考訳(メタデータ) (2024-12-13T06:35:55Z) - Analyzing Fairness of Classification Machine Learning Model with Structured Dataset [1.0923877073891446]
本研究では,分類タスクにおける構造化データセットに適用された機械学習モデルの公平性について検討する。
3つのフェアネスライブラリ、MicrosoftのFairlearn、IBMのAIF360、GoogleのWhat If Toolが採用されている。
この研究は、MLモデルのバイアスの程度を評価し、これらのライブラリの有効性を比較し、実践者に対して実行可能な洞察を導出することを目的としている。
論文 参考訳(メタデータ) (2024-12-13T06:31:09Z) - Fair Mixed Effects Support Vector Machine [0.0]
機械学習の公正性は、トレーニングデータに存在するバイアスを緩和し、不完全性をモデル化することを目的としている。
これは、モデルが民族性や性的指向といった繊細な特徴に基づいて決定するのを防ぐことで達成される。
両問題を同時に処理できるベクターマシンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T12:25:06Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration [5.994347858883343]
並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:53:41Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Bringing the People Back In: Contesting Benchmark Machine Learning
Datasets [11.00769651520502]
機械学習データの系譜である研究プログラムを概説し、これらのデータセットの作成方法と理由について検討する。
機械学習におけるベンチマークデータセットを基盤として運用する方法を解説し、これらのデータセットについて4つの研究課題を提起する。
論文 参考訳(メタデータ) (2020-07-14T23:22:13Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。