論文の概要: Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn
- arxiv url: http://arxiv.org/abs/2202.07300v2
- Date: Mon, 22 Aug 2022 13:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:54:08.614049
- Title: Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn
- Title(参考訳): オンラインマーケットプレースにおけるアルゴリズムフェアネスメトリックの選択:LinkedInにおけるアルゴリズムバイアスの検出と定量化
- Authors: YinYin Yu, Guillaume Saint-Jacques
- Abstract要約: 等資格候補に対する等機会の公平性の概念から、アルゴリズム的公正度計量を導出する。
提案手法は、LinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを計測し、定量化する。
- 参考スコア(独自算出の注目度): 0.21756081703275995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we derive an algorithmic fairness metric from the fairness
notion of equal opportunity for equally qualified candidates for recommendation
algorithms commonly used by two-sided marketplaces. We borrow from the economic
literature on discrimination to arrive at a test for detecting bias that is
solely attributable to the algorithm, as opposed to other sources such as
societal inequality or human bias on the part of platform users. We use the
proposed method to measure and quantify algorithmic bias with respect to gender
of two algorithms used by LinkedIn, a popular online platform used by job
seekers and employers. Moreover, we introduce a framework and the rationale for
distinguishing algorithmic bias from human bias, both of which can potentially
exist on a two-sided platform where algorithms make recommendations to human
users. Finally, we discuss the shortcomings of a few other common algorithmic
fairness metrics and why they do not capture the fairness notion of equal
opportunity for equally qualified candidates.
- Abstract(参考訳): 本稿では,二面マーケットプレースでよく使われる推薦アルゴリズムに対して,等しく適格な候補に対して等しく機会を与えるという公平性概念から,アルゴリズム的公平性指標を導出する。
我々は、差別に関する経済文献から借用し、プラットフォーム利用者の社会的不平等や人的偏見といった他の情報源とは対照的に、アルゴリズムにのみ寄与する偏見を検出するテストに到達した。
提案手法は、求職者や雇用主が利用する人気のあるオンラインプラットフォームであるLinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを測定し定量化する。
さらに,アルゴリズムのバイアスと人間のバイアスを区別するための枠組みと理論的根拠を導入する。
最後に、他の一般的なアルゴリズム的公正度尺度の欠点と、等しく適格な候補に対する平等性の概念を捉えない理由について論じる。
関連論文リスト
- Exploring Gender Disparities in Bumble's Match Recommendations [0.27309692684728604]
インドにおけるオンラインデートプラットフォームであるBumbleの文脈において、偏見と差別について研究している。
我々は,Bumbleがユーザにプッシュするアルゴリズムにおいて,バイアスの存在を特定し,対処する実験を行う。
論文 参考訳(メタデータ) (2023-12-15T09:09:42Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Algorithms are not neutral: Bias in collaborative filtering [0.0]
アルゴリズムバイアスの議論は、データまたはアルゴリズムを構築している人々が偏っている例に焦点を当てる傾向がある。
これは、人気に悩まされ、バイアスを均質化することで知られる協調フィルタリングの例で示される。
人気と均質化バイアスは、すでに限界を更に限界化させる効果があります。
論文 参考訳(メタデータ) (2021-05-03T17:28:43Z) - Auditing for Discrimination in Algorithms Delivering Job Ads [70.02478301291264]
我々は,求人広告配信における識別アルゴリズムのブラックボックス監査のための新しい手法を開発した。
最初のコントリビューションは、性別や人種などの保護されたカテゴリーによる、広告配信における歪の区別です。
第2に,他の要因と資格の違いによって説明可能なスクリューを区別する監査手法を開発する。
第3に、提案手法を求人広告のための2つの主要なターゲット広告プラットフォーム、FacebookとLinkedInに適用する。
論文 参考訳(メタデータ) (2021-04-09T17:38:36Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。