論文の概要: Locating disparities in machine learning
- arxiv url: http://arxiv.org/abs/2208.06680v1
- Date: Sat, 13 Aug 2022 16:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:22:38.233171
- Title: Locating disparities in machine learning
- Title(参考訳): 機械学習における格差の所在
- Authors: Moritz von Zahn, Oliver Hinz, Stefan Feuerriegel
- Abstract要約: 我々は、ALD(Automatic Location of Disparities)と呼ばれるデータ駆動型フレームワークを提案する。
ALDは、機械学習アルゴリズムにおける格差の特定を目的としている。
合成と実世界の両方のデータセットに基づくALDの有効性を示す。
- 参考スコア(独自算出の注目度): 18.44663824430216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning was repeatedly proven to provide predictions with disparate
outcomes, in which subgroups of the population (e.g., defined by age, gender,
or other sensitive attributes) are systematically disadvantaged. Previous
literature has focused on detecting such disparities through statistical
procedures for when the sensitive attribute is specified a priori. However,
this limits applicability in real-world settings where datasets are high
dimensional and, on top of that, sensitive attributes may be unknown. As a
remedy, we propose a data-driven framework called Automatic Location of
Disparities (ALD) which aims at locating disparities in machine learning. ALD
meets several demands from machine learning practice: ALD (1) is applicable to
arbitrary machine learning classifiers; (2) operates on different definitions
of disparities (e.g., statistical parity or equalized odds); (3) deals with
both categorical and continuous predictors; (4) is suitable to handle
high-dimensional settings; and (5) even identifies disparities due to
intersectionality where disparities arise from complex and multi-way
interactions (e.g., age above 60 and female). ALD produces interpretable
fairness reports as output. We demonstrate the effectiveness of ALD based on
both synthetic and real-world datasets. As a result, ALD helps practitioners
and researchers of algorithmic fairness to detect disparities in machine
learning algorithms, so that disparate -- or even unfair -- outcomes can be
mitigated. Moreover, ALD supports practitioners in conducting algorithmic
audits and protecting individuals from discrimination.
- Abstract(参考訳): 機械学習は、人口のサブグループ(例えば、年齢、性別、その他の繊細な属性によって定義される)が体系的に不利な、異なる結果をもたらすことが繰り返し証明された。
従来の文献では、機密属性が予め特定された場合の統計的手続きを通じて、このような格差を検出することに重点を置いてきた。
しかし、これはデータセットが高次元であり、それに加えて機密性の高い属性が不明な実世界での適用性を制限する。
そこで本稿では,機械学習における格差の特定を目的とした,ALD(Automatic Location of Disparities)と呼ばれるデータ駆動型フレームワークを提案する。
ALD (1) は任意の機械学習分類器に適用可能である; (2) 異性の定義(統計パリティや等化オッズなど)を演算する; (3) カテゴリー的および連続的な予測器の両方を扱う; (4) 高次元の設定を扱うのに適した; (5) 複雑および多方向の相互作用(例えば60歳以上と女性)から相違が生じる交叉性による相違を識別する。
aldは出力として解釈可能なフェアネスレポートを生成する。
合成と実世界の両方のデータセットに基づくALDの有効性を示す。
結果として、aldは、アルゴリズムの公平さを実践者や研究者が機械学習アルゴリズムの格差を検出するのに役立つ。
さらに、ALDは、アルゴリズムによる監査を行い、個人を差別から保護する実践者を支援する。
関連論文リスト
- Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。