論文の概要: Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness
- arxiv url: http://arxiv.org/abs/2205.01038v2
- Date: Wed, 4 May 2022 17:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 05:08:35.738698
- Title: Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness
- Title(参考訳): 復刻的アルゴリズムフェアネス:公正の追求における復刻的データ収集のリスクを特徴づける
- Authors: McKane Andrus and Sarah Villeneuve
- Abstract要約: 我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most proposed algorithmic fairness techniques require access to data on a
"sensitive attribute" or "protected category" (such as race, ethnicity, gender,
or sexuality) in order to make performance comparisons and standardizations
across groups, however this data is largely unavailable in practice, hindering
the widespread adoption of algorithmic fairness. Through this paper, we
consider calls to collect more data on demographics to enable algorithmic
fairness and challenge the notion that discrimination can be overcome with
smart enough technical methods and sufficient data alone. We show how these
techniques largely ignore broader questions of data governance and systemic
oppression when categorizing individuals for the purpose of fairer algorithmic
processing. In this work, we explore under what conditions demographic data
should be collected and used to enable algorithmic fairness methods by
characterizing a range of social risks to individuals and communities. For the
risks to individuals we consider the unique privacy risks associated with the
sharing of sensitive attributes likely to be the target of fairness analysis,
the possible harms stemming from miscategorizing and misrepresenting
individuals in the data collection process, and the use of sensitive data
beyond data subjects' expectations. Looking more broadly, the risks to entire
groups and communities include the expansion of surveillance infrastructure in
the name of fairness, misrepresenting and mischaracterizing what it means to be
part of a demographic group or to hold a certain identity, and ceding the
ability to define for themselves what constitutes biased or unfair treatment.
We argue that, by confronting these questions before and during the collection
of demographic data, algorithmic fairness methods are more likely to actually
mitigate harmful treatment disparities without reinforcing systems of
oppression.
- Abstract(参考訳): 提案されているアルゴリズム的公平性技術の多くは、グループ間でのパフォーマンス比較と標準化を行うために「敏感な属性」または「保護されたカテゴリー」のデータにアクセスする必要があるが、このデータは実際にはほとんど利用できず、アルゴリズム的公平性が広く採用されることを妨げている。
本稿では,アルゴリズムの公平性を実現するために,人口動態に関するより多くのデータを集め,十分な技術手法と十分なデータだけで差別を克服できるという考えに挑戦する。
より公平なアルゴリズム処理のために個人を分類する場合、これらの手法はデータガバナンスや体系的な抑圧に関する幅広い疑問をほとんど無視する。
本研究では,人口統計データを収集し,個人やコミュニティに対する幅広い社会的リスクを特徴付けることにより,アルゴリズム的公平性を実現するために利用するべき条件について検討する。
個人に対するリスクについては、公平性分析のターゲットとなる可能性のある機密属性の共有に関連するユニークなプライバシリスク、データ収集プロセスにおける個人を誤分類し誤表現することによる害、データ被験者の期待を超えた機密データの利用、などが考えられる。
より広範に見て、グループやコミュニティ全体に対するリスクには、公正さという名目で監視インフラの拡大、人口集団の一員であることの意味や特定のアイデンティティを保持することの誤表現と誤認、偏見や不公平な扱いを構成するものを自分自身で定義する能力の付与が含まれる。
人口統計データ収集前後のこれらの疑問に直面することで、アルゴリズム的公平性法は、抑圧のシステムを強化することなく、実際に有害な治療格差を緩和する可能性が高まると論じている。
関連論文リスト
- The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Ex-Ante Assessment of Discrimination in Dataset [20.574371560492494]
データ所有者は、自分たちのデータの使用が過小評価されているコミュニティにどのように害を与えるかという責任を負う。
本稿では, 個人の反応が感性特性によってどの程度異なるかを示すスコアを生成する, 決定トレエのForest of decision trEEsアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:28:22Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Data Representativeness in Accessibility Datasets: A Meta-Analysis [7.6597163467929805]
障害のある人と高齢者が作成したデータセットをレビューする。
アクセシビリティデータセットは様々な年齢を表すが、性別と人種の差がある。
われわれの努力が、AIに注入されたシステムに、余分なコミュニティをもっと取り入れる可能性の空間を広げることを願っている。
論文 参考訳(メタデータ) (2022-07-16T23:32:19Z) - Fairness-Aware Naive Bayes Classifier for Data with Multiple Sensitive
Features [0.0]
2-naive-Bayes (2NB) をN-naive-Bayes (NNB) に一般化し、データ中の2つのセンシティブなグループを仮定することの単純化を回避する。
本稿では,複数の感度特徴を持つデータへの適用について検討し,差分フェアネスを強制する新しい制約・後処理ルーチンを提案する。
論文 参考訳(メタデータ) (2022-02-23T13:32:21Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - "What We Can't Measure, We Can't Understand": Challenges to Demographic
Data Procurement in the Pursuit of Fairness [0.0]
アルゴリズムフェアネスの実践者は、実際にはバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
このジレンマは,アルゴリズムフェアネスに隣接する38人の実践者や専門家との半構造化インタビューを通じて検討した。
参加者は、人口統計データの可用性と利用状況が地上でどのように見えるか、複雑な絵を描いた。
論文 参考訳(メタデータ) (2020-10-30T21:06:41Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。