論文の概要: A Normative approach to Attest Digital Discrimination
- arxiv url: http://arxiv.org/abs/2007.07092v2
- Date: Mon, 3 Aug 2020 11:39:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:20:33.374668
- Title: A Normative approach to Attest Digital Discrimination
- Title(参考訳): デジタル差別を検証するための規範的アプローチ
- Authors: Natalia Criado, Xavier Ferrer, Jose M. Such
- Abstract要約: 例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.372554934045607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital discrimination is a form of discrimination whereby users are
automatically treated unfairly, unethically or just differently based on their
personal data by a machine learning (ML) system. Examples of digital
discrimination include low-income neighbourhood's targeted with high-interest
loans or low credit scores, and women being undervalued by 21% in online
marketing. Recently, different techniques and tools have been proposed to
detect biases that may lead to digital discrimination. These tools often
require technical expertise to be executed and for their results to be
interpreted. To allow non-technical users to benefit from ML, simpler notions
and concepts to represent and reason about digital discrimination are needed.
In this paper, we use norms as an abstraction to represent different situations
that may lead to digital discrimination. In particular, we formalise
non-discrimination norms in the context of ML systems and propose an algorithm
to check whether ML systems violate these norms.
- Abstract(参考訳): デジタル差別は、ユーザーが機械学習(ml)システムによって、個人データに基づいて不公平、非倫理的、あるいは単に異なる方法で自動的に扱われる差別の一形態である。
デジタル差別の例としては、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて21%の過小評価を受けている女性などが挙げられる。
近年,デジタル差別につながる可能性のあるバイアスを検出する手法やツールが提案されている。
これらのツールは、多くの場合、技術的専門知識の実行と結果の解釈を必要とする。
技術的でないユーザがMLの恩恵を受けるためには、デジタル差別を表現するためのシンプルな概念と概念が必要である。
本稿では,デジタル差別につながる可能性のある異なる状況を表現するために,規範を抽象化として用いる。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
関連論文リスト
- Hacking a surrogate model approach to XAI [49.1574468325115]
識別されたサブグループがブラックボックスADMシステムから肯定的な決定を下さない場合でも、対応するグループメンバーシップの問題は、必要に応じて低いレベルまで押し下げることができることを示す。
我々のアプローチは、他の代理モデルに容易に一般化できる。
論文 参考訳(メタデータ) (2024-06-24T13:18:02Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models [0.0]
差別的な職種は世界中で認められていないが、今も継続している。
差別的な職種は、直接候補者の人口構成に言及することで明確にすることができる。
暗黙の差別形態も存在し、必ずしも違法であるとは限らないが、それでも応募者の多様性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-02-02T09:25:08Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - DeBayes: a Bayesian Method for Debiasing Network Embeddings [16.588468396705366]
DeBayes は,偏りの偏った埋め込みを学習できる概念的かつエレガントなベイズ的手法である。
実験の結果、これらの表現は、一般的なメトリクスの観点ではかなり公平なリンク予測を行うのに利用できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。