論文の概要: Ex-Ante Assessment of Discrimination in Dataset
- arxiv url: http://arxiv.org/abs/2208.07918v1
- Date: Tue, 16 Aug 2022 19:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:27:58.059807
- Title: Ex-Ante Assessment of Discrimination in Dataset
- Title(参考訳): 元anteによるデータセットの識別評価
- Authors: Jonathan Vasquez, Xavier Gitiaux and Huzefa Rangwala
- Abstract要約: データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。
本稿では, 個人の反応が感性特性によってどの程度異なるかを示すスコアを生成する, 決定トレエのForest of decision trEEsアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 20.574371560492494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data owners face increasing liability for how the use of their data could
harm under-priviliged communities. Stakeholders would like to identify the
characteristics of data that lead to algorithms being biased against any
particular demographic groups, for example, defined by their race, gender, age,
and/or religion. Specifically, we are interested in identifying subsets of the
feature space where the ground truth response function from features to
observed outcomes differs across demographic groups. To this end, we propose
FORESEE, a FORESt of decision trEEs algorithm, which generates a score that
captures how likely an individual's response varies with sensitive attributes.
Empirically, we find that our approach allows us to identify the individuals
who are most likely to be misclassified by several classifiers, including
Random Forest, Logistic Regression, Support Vector Machine, and k-Nearest
Neighbors. The advantage of our approach is that it allows stakeholders to
characterize risky samples that may contribute to discrimination, as well as,
use the FORESEE to estimate the risk of upcoming samples.
- Abstract(参考訳): データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。
株主は、例えば人種、性別、年齢、宗教などによって定義された特定の人口集団に対してアルゴリズムに偏りを生じるデータの特徴を特定したいと考えています。
具体的には,特徴から観察結果への基底的真理応答関数が集団間で異なる特徴空間のサブセットを特定することに興味がある。
この目的のために, 個人の反応が感性特性によってどの程度の確率で変化するかを示すスコアを生成する, FORESEE, FORESt of decision trEEsアルゴリズムを提案する。
経験的に、我々のアプローチはランダムフォレスト、ロジスティック回帰、サポートベクトルマシン、k-Nearest Neighborsなど、いくつかの分類で誤分類される可能性のある個人を特定することができる。
このアプローチの利点は、利害関係者が差別に寄与する可能性のあるリスクのあるサンプルを特徴づけるだけでなく、FOESEEを使って今後のサンプルのリスクを見積もることができることです。
関連論文リスト
- Learning under Selective Labels with Data from Heterogeneous
Decision-makers: An Instrumental Variable Approach [7.629248625993988]
本研究では,歴史的意思決定によって部分的にラベル付けされた結果が得られた場合に生じる,選択的ラベル付きデータによる学習の課題について検討する。
ラベル選択バイアスに頑健な予測規則を両識別設定で学習する重み付き学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T06:34:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Data Representativeness in Accessibility Datasets: A Meta-Analysis [7.6597163467929805]
障害のある人と高齢者が作成したデータセットをレビューする。
アクセシビリティデータセットは様々な年齢を表すが、性別と人種の差がある。
われわれの努力が、AIに注入されたシステムに、余分なコミュニティをもっと取り入れる可能性の空間を広げることを願っている。
論文 参考訳(メタデータ) (2022-07-16T23:32:19Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。