論文の概要: Mitigating Digital Discrimination in Dating Apps -- The Dutch Breeze case
- arxiv url: http://arxiv.org/abs/2409.15828v1
- Date: Tue, 24 Sep 2024 07:47:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 08:31:23.278941
- Title: Mitigating Digital Discrimination in Dating Apps -- The Dutch Breeze case
- Title(参考訳): デートアプリにおけるデジタル差別の緩和 - オランダのブリーズケース
- Authors: Tim de Jonge, Frederik Zuiderveen Borgesius,
- Abstract要約: 2023年9月、オランダの非差別機関であるオランダ人権研究所は、オランダのデートアプリであるBreezeが、彼らのアルゴリズムが非白人に対して差別されたことを疑って正当化されたことを決定した。
i) Breezeのマッチングアルゴリズムにおける民族性に基づく差別は違法か? (ii) デートアプリはマッチングアルゴリズムにおける差別を緩和または阻止するか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In September 2023, the Netherlands Institute for Human Rights, the Dutch non-discrimination authority, decided that Breeze, a Dutch dating app, was justified in suspecting that their algorithm discriminated against non-white. Consequently, the Institute decided that Breeze must prevent this discrimination based on ethnicity. This paper explores two questions. (i) Is the discrimination based on ethnicity in Breeze's matching algorithm illegal? (ii) How can dating apps mitigate or stop discrimination in their matching algorithms? We illustrate the legal and technical difficulties dating apps face in tackling discrimination and illustrate promising solutions. We analyse the Breeze decision in-depth, combining insights from computer science and law. We discuss the implications of this judgment for scholarship and practice in the field of fair and non-discriminatory machine learning.
- Abstract(参考訳): 2023年9月、オランダの非差別機関であるオランダ人権研究所は、オランダのデートアプリであるBreezeが、彼らのアルゴリズムが非白人に対して差別されたことを疑って正当化されたことを決定した。
その結果、協会はブレーゼが民族性に基づいてこの差別を防ぐことを決定した。
この論文は2つの疑問を探求する。
(i)ブレーズのマッチングアルゴリズムにおける民族性に基づく差別は違法か?
(ii)デートアプリがマッチングアルゴリズムの差別を緩和したり、止めたりするにはどうすればいいのか?
我々は、デートアプリが差別に取り組む際に直面する法的および技術的な困難について説明し、有望な解決策を説明する。
我々はBreezeの決定を深く分析し、コンピュータ科学と法学の洞察を組み合わせた。
公正・非差別的機械学習の分野における学問・実践におけるこの判断の意味について論じる。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models [0.0]
差別的な職種は世界中で認められていないが、今も継続している。
差別的な職種は、直接候補者の人口構成に言及することで明確にすることができる。
暗黙の差別形態も存在し、必ずしも違法であるとは限らないが、それでも応募者の多様性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-02-02T09:25:08Z) - Auditing for Discrimination in Algorithms Delivering Job Ads [70.02478301291264]
我々は,求人広告配信における識別アルゴリズムのブラックボックス監査のための新しい手法を開発した。
最初のコントリビューションは、性別や人種などの保護されたカテゴリーによる、広告配信における歪の区別です。
第2に,他の要因と資格の違いによって説明可能なスクリューを区別する監査手法を開発する。
第3に、提案手法を求人広告のための2つの主要なターゲット広告プラットフォーム、FacebookとLinkedInに適用する。
論文 参考訳(メタデータ) (2021-04-09T17:38:36Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - An\'alisis jur\'idico de la discriminaci\'on algor\'itmica en los
procesos de selecci\'on laboral [0.0]
米国における求職プロセスにおける機械学習の利用について説明する。
我々は、検出された人種的および性的偏見をいくつか提示する。
法的な観点からアルゴリズム的差別にどうアプローチすればよいかは定かではない。
論文 参考訳(メタデータ) (2020-08-02T00:49:24Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。