論文の概要: A survey on datasets for fairness-aware machine learning
- arxiv url: http://arxiv.org/abs/2110.00530v1
- Date: Fri, 1 Oct 2021 16:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 16:56:57.609522
- Title: A survey on datasets for fairness-aware machine learning
- Title(参考訳): 公正な機械学習のためのデータセットに関する調査
- Authors: Tai Le Quy, Arjun Roy, Vasileios Iosifidis, Eirini Ntoutsi
- Abstract要約: 多くのフェアネス対応機械学習ソリューションが提案されている。
本稿では,フェアネスを意識した機械学習に使用される実世界のデータセットについて概説する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
- 参考スコア(独自算出の注目度): 6.962333053044713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As decision-making increasingly relies on machine learning and (big) data,
the issue of fairness in data-driven AI systems is receiving increasing
attention from both research and industry. A large variety of fairness-aware
machine learning solutions have been proposed which propose fairness-related
interventions in the data, learning algorithms and/or model outputs. However, a
vital part of proposing new approaches is evaluating them empirically on
benchmark datasets that represent realistic and diverse settings. Therefore, in
this paper, we overview real-world datasets used for fairness-aware machine
learning. We focus on tabular data as the most common data representation for
fairness-aware machine learning. We start our analysis by identifying
relationships among the different attributes, particularly w.r.t. protected
attributes and class attributes, using a Bayesian network. For a deeper
understanding of bias and fairness in the datasets, we investigate the
interesting relationships using exploratory analysis.
- Abstract(参考訳): 意思決定は機械学習と(大きな)データにますます依存しているため、データ駆動型AIシステムの公正性の問題は、研究と産業の両方から注目を集めている。
データ、学習アルゴリズム、および/またはモデル出力にフェアネスに関連する介入を提案する、さまざまなフェアネス対応機械学習ソリューションが提案されている。
しかし、新しいアプローチを提案する上で重要な部分は、現実的で多様な設定を表すベンチマークデータセットでそれらを実証的に評価することである。
そこで本稿では,フェアネス認識機械学習に使用される実世界のデータセットについて概説する。
公正な機械学習のための最も一般的なデータ表現として表型データに焦点を当てる。
我々はベイズネットワークを用いて,異なる属性,特にw.r.t. protected属性とクラス属性間の関係を同定し,分析を開始する。
データセットのバイアスと公平性についてより深く理解するために、探索分析を用いて興味深い関係を考察する。
関連論文リスト
- Fair Mixed Effects Support Vector Machine [0.0]
機械学習の公正性は、トレーニングデータに存在するバイアスを緩和し、不完全性をモデル化することを目的としている。
これは、モデルが民族性や性的指向といった繊細な特徴に基づいて決定するのを防ぐことで達成される。
両問題を同時に処理できるベクターマシンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T12:25:06Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration [5.994347858883343]
並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:53:41Z) - FAIR-FATE: Fair Federated Learning with Momentum [0.41998444721319217]
本研究では,グループフェアネスの達成を目的としたFAIRフェデレート学習アルゴリズムを提案する。
我々の知る限りでは、公正なモメンタム推定を用いて公平性を達成することを目的とした機械学習における最初のアプローチである。
実世界のデータセットに対する実験結果から、FAIR-FATEは最先端のフェデレート学習アルゴリズムよりも優れています。
論文 参考訳(メタデータ) (2022-09-27T20:33:38Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - A Note on Data Biases in Generative Models [16.86600007830682]
生成モデルの性能に及ぼすデータセット品質の影響について検討する。
生成モデルによりデータセットの社会的バイアスがどのように再現されるかを示す。
本稿では,写真,油絵,アニメなどの多様なデータセット間の非ペア転送を通じて,クリエイティブな応用を提示する。
論文 参考訳(メタデータ) (2020-12-04T10:46:37Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Bringing the People Back In: Contesting Benchmark Machine Learning
Datasets [11.00769651520502]
機械学習データの系譜である研究プログラムを概説し、これらのデータセットの作成方法と理由について検討する。
機械学習におけるベンチマークデータセットを基盤として運用する方法を解説し、これらのデータセットについて4つの研究課題を提起する。
論文 参考訳(メタデータ) (2020-07-14T23:22:13Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。