論文の概要: When Fair Ranking Meets Uncertain Inference
- arxiv url: http://arxiv.org/abs/2105.02091v1
- Date: Wed, 5 May 2021 14:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:34:43.292979
- Title: When Fair Ranking Meets Uncertain Inference
- Title(参考訳): フェアランキングが不確実な推論に出会ったとき
- Authors: Avijit Ghosh, Ritam Dutt, Christo Wilson
- Abstract要約: 実システムから導かれる人口統計学的推論が、いかに不公平なランキングにつながるかを示す。
この結果から,推定された人口統計データを公正なランキングアルゴリズムの入力として使用するべきではないことが示唆された。
- 参考スコア(独自算出の注目度): 5.33312437416961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing fair ranking systems, especially those designed to be
demographically fair, assume that accurate demographic information about
individuals is available to the ranking algorithm. In practice, however, this
assumption may not hold -- in real-world contexts like ranking job applicants
or credit seekers, social and legal barriers may prevent algorithm operators
from collecting peoples' demographic information. In these cases, algorithm
operators may attempt to infer peoples' demographics and then supply these
inferences as inputs to the ranking algorithm.
In this study, we investigate how uncertainty and errors in demographic
inference impact the fairness offered by fair ranking algorithms. Using
simulations and three case studies with real datasets, we show how demographic
inferences drawn from real systems can lead to unfair rankings. Our results
suggest that developers should not use inferred demographic data as input to
fair ranking algorithms, unless the inferences are extremely accurate.
- Abstract(参考訳): 既存の公正ランキングシステム、特に人口統計学的に公平であるように設計されたシステムは、個人に関する正確な人口統計情報をランキングアルゴリズムで利用できると仮定する。
しかし実際には、この仮定は -- 求職者や信用求職者のような現実世界の文脈では、社会的および法的障壁は、アルゴリズムオペレーターが人々の人口統計情報を収集することを妨げる可能性がある。
この場合、アルゴリズムオペレータは、人々の人口動態を推測し、これらの推論をランキングアルゴリズムの入力として提供しようとする。
本研究では,人口統計学における不確実性と誤りが,公正ランキングアルゴリズムによって提供される公平性にどのように影響するかを検討する。
実データを用いたシミュレーションと3つのケーススタディを用いて、実システムから引き出された人口統計学的推論が不公平なランキングにどのようにつながるかを示す。
以上の結果から,推測が極めて正確でない限り,推定された人口統計データを公平なランキングアルゴリズムの入力として使用するべきではないことが示唆された。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Demographic-Reliant Algorithmic Fairness: Characterizing the Risks of
Demographic Data Collection in the Pursuit of Fairness [0.0]
我々は、アルゴリズムの公正性を実現するために、人口統計に関するより多くのデータを集めることを検討する。
これらの技術は、データガバナンスとシステム抑圧に関するより広範な疑問を、いかに無視するかを示す。
論文 参考訳(メタデータ) (2022-04-18T04:50:09Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring [9.21721532941863]
我々は、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおける性別バイアスの源泉を分析した。
結果から, 公平なランキングアルゴリズムは, 少数民族の選抜率を向上するが, 求職状況や候補者のプロファイルに大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2020-12-01T11:45:27Z) - "What We Can't Measure, We Can't Understand": Challenges to Demographic
Data Procurement in the Pursuit of Fairness [0.0]
アルゴリズムフェアネスの実践者は、実際にはバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
このジレンマは,アルゴリズムフェアネスに隣接する38人の実践者や専門家との半構造化インタビューを通じて検討した。
参加者は、人口統計データの可用性と利用状況が地上でどのように見えるか、複雑な絵を描いた。
論文 参考訳(メタデータ) (2020-10-30T21:06:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。