論文の概要: De spanning tussen het non-discriminatierecht en het gegevensbeschermingsrecht: heeft de AVG een nieuwe uitzondering nodig om discriminatie door kunstmatige intelligentie tegen te gaan?
- arxiv url: http://arxiv.org/abs/2509.08836v1
- Date: Mon, 01 Sep 2025 15:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.948577
- Title: De spanning tussen het non-discriminatierecht en het gegevensbeschermingsrecht: heeft de AVG een nieuwe uitzondering nodig om discriminatie door kunstmatige intelligentie tegen te gaan?
- Title(参考訳): AVG een nieuwe uitzondering nodig om discriminatie door kunstmatige intelligentie tegen te Gaan?
- Authors: Marvin van Bekkum, Frederik Zuiderveen Borgesius,
- Abstract要約: ヨーロッパでは、AIシステムが誤って民族によって差別されるかどうかを評価しようとすると、組織が問題に直面します。
原則として、特定の「特定のデータのカテゴリ」の使用を禁じる。
本稿では、個人データの特殊カテゴリに関するルールが、AIによる差別の防止を妨げているかどうかを問う。
- 参考スコア(独自算出の注目度): 0.314299983260895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organisations can use artificial intelligence to make decisions about people for a variety of reasons, for instance, to select the best candidates from many job applications. However, AI systems can have discriminatory effects when used for decision-making. To illustrate, an AI system could reject applications of people with a certain ethnicity, while the organisation did not plan such ethnicity discrimination. But in Europe, an organisation runs into a problem when it wants to assess whether its AI system accidentally discriminates based on ethnicity: the organisation may not know the applicants' ethnicity. In principle, the GDPR bans the use of certain 'special categories of data' (sometimes called 'sensitive data'), which include data on ethnicity, religion, and sexual preference. The proposal for an AI Act of the European Commission includes a provision that would enable organisations to use special categories of data for auditing their AI systems. This paper asks whether the GDPR's rules on special categories of personal data hinder the prevention of AI-driven discrimination. We argue that the GDPR does prohibit such use of special category data in many circumstances. We also map out the arguments for and against creating an exception to the GDPR's ban on using special categories of personal data, to enable preventing discrimination by AI systems. The paper discusses European law, but the paper can be relevant outside Europe too, as many policymakers in the world grapple with the tension between privacy and non-discrimination policy.
- Abstract(参考訳): 組織は、人工知能を使用して、さまざまな理由で人々に関する決定を行うことができ、例えば、多くの求人アプリケーションから最適な候補を選択することができる。
しかし、AIシステムは意思決定に使用すると差別効果がある。
説明として、AIシステムは特定の民族を持つ人々の適用を拒否する可能性があるが、組織はそのような民族差別を計画しなかった。
しかし、ヨーロッパでは、AIシステムが誤って民族によって差別されているかどうかを評価しようとすると、組織は問題に直面します。
原則として、GDPRは、民族、宗教、性的嗜好に関するデータを含む特定の「特定のデータのカテゴリ」の使用を禁止している(しばしば「感受性データ」と呼ばれる)。
欧州委員会AI法の提案には、組織がAIシステムの監査に特別なカテゴリのデータを使用することを可能にする条項が含まれている。
本稿では,個人データの特殊カテゴリに関するGDPRのルールが,AIによる差別の防止を妨げているかどうかを問う。
GDPRは多くの状況において特別なカテゴリーデータの使用を禁止していると論じる。
我々はまた、AIシステムによる差別を防止するために、GDPRが個人データの特別なカテゴリの使用を禁止することの例外を作成することに対する議論と反対の議論をマップアップする。
世界中の多くの政策立案者が、プライバシーと非差別政策の緊張に悩まされている。
関連論文リスト
- It's complicated. The relationship of algorithmic fairness and non-discrimination regulations for high-risk systems in the EU AI Act [2.9914612342004503]
EUは最近、ハイリスクシステムの特定のルールを規定するAI法を成立させた。
本稿では、法的な非差別規則と機械学習に基づくアルゴリズムフェアネスの概念を橋渡しすることを目的とする。
論文 参考訳(メタデータ) (2025-01-22T15:38:09Z) - Generative Discrimination: What Happens When Generative AI Exhibits Bias, and What Can Be Done About It [2.2913283036871865]
第1章は、genAIが非差別法とどのように交わるかを考察する。
差別的アウトプットには2つの主要な種類がある: (i) 嫌悪的内容と (ii) 保護されたグループの不適切な表現による微妙なバイアス。
差別的なアウトプットに責任を負うgenAIプロバイダやデプロイの保持を主張し、genAI固有の問題に対処する従来の法的枠組みの不十分さを強調している。
論文 参考訳(メタデータ) (2024-06-26T13:32:58Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception? [0.0]
ヨーロッパでは、AIシステムが誤って民族によって差別されるかどうかを評価しようとすると、組織が問題に直面します。
原則として、特定の「特定のデータのカテゴリ」の使用を禁じる。
本稿では、個人データの特殊カテゴリに関するルールが、AIによる差別の防止を妨げているかどうかを問う。
論文 参考訳(メタデータ) (2022-05-17T07:39:25Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。