論文の概要: Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview
- arxiv url: http://arxiv.org/abs/2302.05995v1
- Date: Sun, 12 Feb 2023 20:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 17:32:28.796164
- Title: Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview
- Title(参考訳): 法と機械学習における多次元識別 -- 比較概要
- Authors: Arjun Roy, Jan Horstmann, Eirini Ntoutsi
- Abstract要約: 公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
- 参考スコア(独自算出の注目度): 14.650860450187793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-driven decision-making can lead to discrimination against certain
individuals or social groups based on protected characteristics/attributes such
as race, gender, or age. The domain of fairness-aware machine learning focuses
on methods and algorithms for understanding, mitigating, and accounting for
bias in AI/ML models. Still, thus far, the vast majority of the proposed
methods assess fairness based on a single protected attribute, e.g. only gender
or race. In reality, though, human identities are multi-dimensional, and
discrimination can occur based on more than one protected characteristic,
leading to the so-called ``multi-dimensional discrimination'' or
``multi-dimensional fairness'' problem. While well-elaborated in legal
literature, the multi-dimensionality of discrimination is less explored in the
machine learning community. Recent approaches in this direction mainly follow
the so-called intersectional fairness definition from the legal domain, whereas
other notions like additive and sequential discrimination are less studied or
not considered thus far. In this work, we overview the different definitions of
multi-dimensional discrimination/fairness in the legal domain as well as how
they have been transferred/ operationalized (if) in the fairness-aware machine
learning domain. By juxtaposing these two domains, we draw the connections,
identify the limitations, and point out open research directions.
- Abstract(参考訳): AIによる意思決定は、人種、性別、年齢といった保護された特徴や属性に基づいて、特定の個人や社会グループに対する差別につながる可能性がある。
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
それでも、提案された方法の大多数は、性別や人種など、単一の保護された属性に基づいて公正さを評価する。
しかし実際には、人間のアイデンティティは多次元であり、識別は複数の保護された特徴に基づいて起こり、いわゆる「多次元識別」や「多次元公平」の問題に繋がる。
法律文献ではよく説明されているが、差別の多次元性は機械学習のコミュニティではあまり研究されていない。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従うが、加法やシーケンシャルな差別といった他の概念は研究されていないか、これまで考えられていない。
本稿では,法領域における多次元識別/フェアネスの異なる定義と,フェアネスを意識した機械学習領域においてどのように移行/運用されたか(if)について概説する。
これら2つのドメインを並べ合わせることで、接続を描き、限界を特定し、オープンな研究の方向性を指摘する。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Unsupervised Domain Adaptation on Person Re-Identification via
Dual-level Asymmetric Mutual Learning [108.86940401125649]
本稿では,多種多様な埋め込み空間を持つより広い知識領域から識別的表現を学習するための,DAML(Dual-level Asymmetric Mutual Learning)を提案する。
2つのネットワーク間の知識伝達は、非対称な相互学習方式に基づいている。
Market-1501、CUHK-SYSU、MSMT17の公開データセットにおける実験は、最先端技術よりもDAMLの方が優れていることを証明した。
論文 参考訳(メタデータ) (2023-01-29T12:36:17Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - A Normative approach to Attest Digital Discrimination [6.372554934045607]
例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T15:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。