論文の概要: "What We Can't Measure, We Can't Understand": Challenges to Demographic
Data Procurement in the Pursuit of Fairness
- arxiv url: http://arxiv.org/abs/2011.02282v2
- Date: Sat, 23 Jan 2021 01:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:28:14.312581
- Title: "What We Can't Measure, We Can't Understand": Challenges to Demographic
Data Procurement in the Pursuit of Fairness
- Title(参考訳): 「計測できないもの、理解できないもの」--公正を求めての復刻的データ調達への挑戦
- Authors: McKane Andrus, Elena Spitzer, Jeffrey Brown, Alice Xiang
- Abstract要約: アルゴリズムフェアネスの実践者は、実際にはバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
このジレンマは,アルゴリズムフェアネスに隣接する38人の実践者や専門家との半構造化インタビューを通じて検討した。
参加者は、人口統計データの可用性と利用状況が地上でどのように見えるか、複雑な絵を描いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As calls for fair and unbiased algorithmic systems increase, so too does the
number of individuals working on algorithmic fairness in industry. However,
these practitioners often do not have access to the demographic data they feel
they need to detect bias in practice. Even with the growing variety of toolkits
and strategies for working towards algorithmic fairness, they almost invariably
require access to demographic attributes or proxies. We investigated this
dilemma through semi-structured interviews with 38 practitioners and
professionals either working in or adjacent to algorithmic fairness.
Participants painted a complex picture of what demographic data availability
and use look like on the ground, ranging from not having access to personal
data of any kind to being legally required to collect and use demographic data
for discrimination assessments. In many domains, demographic data collection
raises a host of difficult questions, including how to balance privacy and
fairness, how to define relevant social categories, how to ensure meaningful
consent, and whether it is appropriate for private companies to infer someone's
demographics. Our research suggests challenges that must be considered by
businesses, regulators, researchers, and community groups in order to enable
practitioners to address algorithmic bias in practice. Critically, we do not
propose that the overall goal of future work should be to simply lower the
barriers to collecting demographic data. Rather, our study surfaces a swath of
normative questions about how, when, and whether this data should be procured,
and, in cases where it is not, what should still be done to mitigate bias.
- Abstract(参考訳): 公平で偏りのないアルゴリズムシステムを求める声が高まるにつれて、産業におけるアルゴリズムの公平性に取り組む個人も増えている。
しかし、これらの実践者は、実際にバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
アルゴリズムの公平性に向けた様々なツールキットや戦略が成長しているにもかかわらず、人口統計学的属性やプロキシへのアクセスはほとんど必然的に必要である。
このジレンマを,アルゴリズムの公平性にかかわる38人の実践者および専門家との半構造化インタビューを通じて検討した。
参加者は、あらゆる種類の個人データにアクセスできないことから、差別評価のために人口統計データを収集し使用するために法的に要求されることまで、人口統計データの可用性と利用が地上でどのように見えるかという複雑な図を描いた。
多くの分野において、人口統計データ収集は、プライバシーと公正のバランスの方法、関連する社会的カテゴリーの定義方法、意味のある同意の確保方法、個人企業が誰かの人口統計を推測するのに適切かどうかなど、多くの難しい疑問を提起する。
我々の研究は、実践者が実際にアルゴリズムバイアスに対処できるように、企業、規制当局、研究者、コミュニティグループによって考慮されるべき課題を提案する。
批判的に、将来的な仕事の全体的な目標は、人口統計データを収集する障壁を単に低くすることではない。
むしろ、我々の研究は、どのように、いつ、そして、このデータが調達されるべきなのか、そして、そうでない場合、バイアスを軽減するためにまだ何をすべきなのか、という規範的な疑問を表面化しています。
関連論文リスト
- Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Data Representativeness in Accessibility Datasets: A Meta-Analysis [7.6597163467929805]
障害のある人と高齢者が作成したデータセットをレビューする。
アクセシビリティデータセットは様々な年齢を表すが、性別と人種の差がある。
われわれの努力が、AIに注入されたシステムに、余分なコミュニティをもっと取り入れる可能性の空間を広げることを願っている。
論文 参考訳(メタデータ) (2022-07-16T23:32:19Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - When Fair Ranking Meets Uncertain Inference [5.33312437416961]
実システムから導かれる人口統計学的推論が、いかに不公平なランキングにつながるかを示す。
この結果から,推定された人口統計データを公正なランキングアルゴリズムの入力として使用するべきではないことが示唆された。
論文 参考訳(メタデータ) (2021-05-05T14:40:07Z) - Measuring Social Biases of Crowd Workers using Counterfactual Queries [84.10721065676913]
性別、人種などに基づく社会的バイアスは、主にバイアス付きトレーニングデータセットを介して、汚染された機械学習(ML)パイプラインに示されている。
クラウドソーシング(Crowdsourcing)は、ラベル付きトレーニングデータセットを収集するための一般的な費用効果尺度であり、群衆労働者の社会的偏見に免疫がない。
本研究では, 集団労働者ごとの社会的バイアスの程度を定量化するための, 対実的公正度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-04T21:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。