論文の概要: Protected Grounds and the System of Non-Discrimination Law in the Context of Algorithmic Decision-Making and Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2509.08837v1
- Date: Mon, 01 Sep 2025 15:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.950292
- Title: Protected Grounds and the System of Non-Discrimination Law in the Context of Algorithmic Decision-Making and Artificial Intelligence
- Title(参考訳): アルゴリズム決定と人工知能の文脈における保護地と非差別法制度
- Authors: Janneke Gerards, Frederik Zuiderveen Borgesius,
- Abstract要約: 本稿では,非差別法則をアルゴリズム決定に最も適用できるシステムについて検討する。
本論文は,非差別法によって提供される保護の現在の抜け穴を解析し,議員がアルゴリズムの分化にアプローチする最善の方法を探るものである。
- 参考スコア(独自算出の注目度): 0.1915265522996079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision-making and similar types of artificial intelligence (AI) may lead to improvements in all sectors of society, but can also have discriminatory effects. While current non-discrimination law offers people some protection, algorithmic decision-making presents the law with several challenges. For instance, algorithms can generate new categories of people based on seemingly innocuous characteristics, such as web browser preference or apartment number, or more complicated categories combining many data points. Such new types of differentiation could evade non-discrimination law, as browser type and house number are not protected characteristics, but such differentiation could still be unfair, for instance if it reinforces social inequality. This paper explores which system of non-discrimination law can best be applied to algorithmic decision-making, considering that algorithms can differentiate on the basis of characteristics that do not correlate with protected grounds of discrimination such as ethnicity or gender. The paper analyses the current loopholes in the protection offered by non-discrimination law and explores the best way for lawmakers to approach algorithmic differentiation. While we focus on Europe, the conceptual and theoretical focus of the paper can make it useful for scholars and policymakers from other regions too, as they encounter similar problems with algorithmic decision-making.
- Abstract(参考訳): アルゴリズムによる意思決定と類似の人工知能(AI)は、社会のあらゆる分野の改善につながる可能性があるが、差別的効果もある。
現在の非差別法は人々に何らかの保護を提供するが、アルゴリズムによる決定はいくつかの課題で法を提示する。
例えば、Webブラウザの好みやマンション番号など、一見無害な特徴に基づいて、新しいカテゴリーの人を生成するアルゴリズムや、多くのデータポイントを組み合わせたより複雑なカテゴリを生成することができる。
このような新しいタイプの差別は、ブラウザタイプとハウス番号が保護されていないため、非差別法を回避できるが、例えば社会的不平等を補強するならば、そのような差別は不公平である。
本稿では、アルゴリズムが、民族や性別などの差別の保護的根拠と相関しない特性に基づいて区別することができることを考慮し、どの非差別法体系がアルゴリズム決定に最も適しているかを考察する。
本論文は,非差別法によって提供される保護の現在の抜け穴を解析し,議員がアルゴリズムの分化にアプローチする最善の方法を探るものである。
我々はヨーロッパに焦点を当てているが、この論文の概念的・理論的焦点は、アルゴリズムによる意思決定と同じような問題に直面するため、他の地域の学者や政策立案者にとっても有用である。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Unlawful Proxy Discrimination: A Framework for Challenging Inherently Discriminatory Algorithms [4.1221687771754]
EUの直接差別という法的概念は、様々なアルゴリズムによる意思決定の文脈に適用できる。
間接的差別とは異なり、直接的差別の枠組みには「客観的正当化」段階は存在しない。
アルゴリズムの文脈における直接差別の最も可能性の高い候補に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T10:06:17Z) - Fairness and Bias in Algorithmic Hiring: a Multidisciplinary Survey [43.463169774689646]
この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
論文 参考訳(メタデータ) (2023-09-25T08:04:18Z) - Designing Equitable Algorithms [1.9006392177894293]
現在、予測アルゴリズムは、我々の社会の資源と制裁の大部分を分配するのに使われています。
これらのアルゴリズムは意思決定の効率と公平性を改善することができる。
しかし、彼らは特に人種、民族、性別のラインで格差を拡大し、悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-02-17T22:00:44Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z) - Towards a Flexible Framework for Algorithmic Fairness [0.8379286663107844]
近年、アルゴリズム決定システムにおける非差別性を保証するための多くの異なる定義が提案されている。
本稿では, 最適な輸送手段を利用して, フェアネス定義の相違を補間するフレキシブルな枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-15T16:06:53Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。