論文の概要: Locating disparities in machine learning
- arxiv url: http://arxiv.org/abs/2208.06680v3
- Date: Mon, 4 Sep 2023 13:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 11:14:20.576196
- Title: Locating disparities in machine learning
- Title(参考訳): 機械学習における格差の所在
- Authors: Moritz von Zahn, Oliver Hinz, Stefan Feuerriegel
- Abstract要約: 我々は、ALD(Automatic Location of Disparities)と呼ばれるデータ駆動型フレームワークを提案する。
ALDは、機械学習アルゴリズムにおける格差の特定を目的としている。
合成と実世界の両方のデータセットに基づくALDの有効性を示す。
- 参考スコア(独自算出の注目度): 24.519488484614953
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning can provide predictions with disparate outcomes, in which
subgroups of the population (e.g., defined by age, gender, or other sensitive
attributes) are systematically disadvantaged. In order to comply with upcoming
legislation, practitioners need to locate such disparate outcomes. However,
previous literature typically detects disparities through statistical
procedures for when the sensitive attribute is specified a priori. This limits
applicability in real-world settings where datasets are high dimensional and,
on top of that, sensitive attributes may be unknown. As a remedy, we propose a
data-driven framework called Automatic Location of Disparities (ALD) which aims
at locating disparities in machine learning. ALD meets several demands from
industry: ALD (1) is applicable to arbitrary machine learning classifiers; (2)
operates on different definitions of disparities (e.g., statistical parity or
equalized odds); and (3) deals with both categorical and continuous predictors
even if disparities arise from complex and multi-way interactions known as
intersectionality (e. g., age above 60 and female). ALD produces interpretable
audit reports as output. We demonstrate the effectiveness of ALD based on both
synthetic and real-world datasets. As a result, we empower practitioners to
effectively locate and mitigate disparities in machine learning algorithms,
conduct algorithmic audits, and protect individuals from discrimination.
- Abstract(参考訳): 機械学習は、人口のサブグループ(例えば年齢、性別、その他の敏感な属性によって定義される)が体系的に不利である、異なる結果の予測を提供することができる。
今後の法律に準拠するために、実践者はそのような異なる結果を見つける必要がある。
しかし、従来の文献では、通常、感度の高い属性が事前指定された場合の統計的手続きを通じて、不一致を検出する。
これにより、データセットが高次元であり、その上、機密性の高い属性が不明な実世界での適用性が制限される。
そこで本稿では,機械学習における格差の特定を目的とした,ALD(Automatic Location of Disparities)と呼ばれるデータ駆動型フレームワークを提案する。
ald(1)は任意の機械学習分類器に適用可能であり、(2)異なる異質性の定義(例えば、統計パリティや等化オッズ)に基づいて動作し、(3)交叉性(英語版)として知られる複雑多方向相互作用(例えば60歳以上および女性)から異質性が生じる場合でも、カテゴリー的および連続的予測器の両方を扱う。
ALDは解釈可能な監査レポートを出力として生成する。
合成と実世界の両方のデータセットに基づくALDの有効性を示す。
その結果、機械学習アルゴリズムにおける格差を効果的に発見・緩和し、アルゴリズムによる監査を行い、個人を差別から保護する。
関連論文リスト
- Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Domain-Incremental Continual Learning for Mitigating Bias in Facial
Expression and Action Unit Recognition [5.478764356647437]
FERシステムの公平性を高めるための強力なバイアス軽減法として,Continual Learning (CL) の新たな利用法を提案する。
表現認識と行動ユニット(AU)検出タスクにおける分類精度と公平度スコアについて,非CL法とCL法との比較を行った。
実験の結果,CLに基づく手法は,精度と公正度の両方において,他の一般的なバイアス緩和手法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:22:17Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。