論文の概要: Exploring Gender Disparities in Bumble's Match Recommendations
- arxiv url: http://arxiv.org/abs/2312.09626v1
- Date: Fri, 15 Dec 2023 09:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:24:02.716332
- Title: Exploring Gender Disparities in Bumble's Match Recommendations
- Title(参考訳): BumbleのMatch Recommendationsにおける性差の探索
- Authors: Ritvik Aryan Kalra, Pratham Gupta, Ben Varghese and Nimmi Rangaswamy
- Abstract要約: インドにおけるオンラインデートプラットフォームであるBumbleの文脈において、偏見と差別について研究している。
我々は,Bumbleがユーザにプッシュするアルゴリズムにおいて,バイアスの存在を特定し,対処する実験を行う。
- 参考スコア(独自算出の注目度): 0.27309692684728604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study bias and discrimination in the context of Bumble, an online dating
platform in India. Drawing on research in AI fairness and inclusion studies we
analyze algorithmic bias and their propensity to reproduce bias. We conducted
an experiment to identify and address the presence of bias in the matching
algorithms Bumble pushes to its users in the form of profiles for potential
dates in the real world. Dating apps like Bumble utilize algorithms that learn
from user data to make recommendations. Even if the algorithm does not have
intentions or consciousness, it is a system created and maintained by humans.
We attribute moral agency of such systems to be compositely derived from
algorithmic mediations, the design and utilization of these platforms.
Developers, designers, and operators of dating platforms thus have a moral
obligation to mitigate biases in the algorithms to create inclusive platforms
that affirm diverse social identities.
- Abstract(参考訳): インドのオンラインデートプラットフォームであるBumbleの文脈で偏見と差別を研究する。
aiの公平性と包摂性の研究を題材に,アルゴリズムバイアスとその傾向を分析し,バイアスを再現する。
実世界の潜在的な日付のプロファイルとして,bumbleがユーザに対してプッシュするマッチングアルゴリズムにおけるバイアスの存在を識別し,対処する実験を行った。
bumbleのようなデートアプリは、ユーザーデータから学習するアルゴリズムを利用して推薦する。
アルゴリズムが意図や意識を持っていなくても、それは人間が作り、維持するシステムである。
このようなシステムのモラルエージェンシーは、これらのプラットフォームの設計と利用をアルゴリズムの仲介から合成したものとみなす。
したがって、デートプラットフォームの開発者、デザイナー、オペレーターは、アルゴリズムのバイアスを緩和し、多様な社会的アイデンティティを肯定する包括的プラットフォームを作成する道徳的義務を持つ。
関連論文リスト
- User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn [0.21756081703275995]
等資格候補に対する等機会の公平性の概念から、アルゴリズム的公正度計量を導出する。
提案手法は、LinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを計測し、定量化する。
論文 参考訳(メタデータ) (2022-02-15T10:33:30Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Beyond Algorithmic Bias: A Socio-Computational Interrogation of the
Google Search by Image Algorithm [0.799536002595393]
アルゴリズムを、すべての年齢と4種以上の人種の40万以上の顔で提示することで、監査する。
このアルゴリズムは、しばしば、女性および非白人個人を単純化し、ステレオタイピングし、識別する、白人男性の家長構造を再現する。
論文 参考訳(メタデータ) (2021-05-26T21:40:43Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。