論文の概要: Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception?
- arxiv url: http://arxiv.org/abs/2206.03262v3
- Date: Mon, 28 Nov 2022 11:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:35:10.557805
- Title: Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception?
- Title(参考訳): 人工知能による差別を防ぐために機密データを使用する:GDPRは新しい例外が必要か?
- Authors: Marvin van Bekkum, Frederik Zuiderveen Borgesius
- Abstract要約: ヨーロッパでは、AIシステムが誤って民族によって差別されるかどうかを評価しようとすると、組織が問題に直面します。
原則として、特定の「特定のデータのカテゴリ」の使用を禁じる。
本稿では、個人データの特殊カテゴリに関するルールが、AIによる差別の防止を妨げているかどうかを問う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Organisations can use artificial intelligence to make decisions about people
for a variety of reasons, for instance, to select the best candidates from many
job applications. However, AI systems can have discriminatory effects when used
for decision-making. To illustrate, an AI system could reject applications of
people with a certain ethnicity, while the organisation did not plan such
ethnicity discrimination. But in Europe, an organisation runs into a problem
when it wants to assess whether its AI system accidentally discriminates based
on ethnicity: the organisation may not know the applicants' ethnicity. In
principle, the GDPR bans the use of certain 'special categories of data'
(sometimes called 'sensitive data'), which include data on ethnicity, religion,
and sexual preference. The proposal for an AI Act of the European Commission
includes a provision that would enable organisations to use special categories
of data for auditing their AI systems. This paper asks whether the GDPR's rules
on special categories of personal data hinder the prevention of AI-driven
discrimination. We argue that the GDPR does prohibit such use of special
category data in many circumstances. We also map out the arguments for and
against creating an exception to the GDPR's ban on using special categories of
personal data, to enable preventing discrimination by AI systems. The paper
discusses European law, but the paper can be relevant outside Europe too, as
many policymakers in the world grapple with the tension between privacy and
non-discrimination policy.
- Abstract(参考訳): 組織は人工知能を使用して、さまざまな理由から人々に関する意思決定を行い、例えば、多くの求人アプリケーションから最高の候補を選ぶことができる。
しかし、AIシステムは意思決定に使用すると差別効果がある。
説明として、AIシステムは特定の民族を持つ人々の適用を拒否する可能性があるが、組織はそのような民族差別を計画しなかった。
しかし、ヨーロッパでは、AIシステムが誤って民族によって差別されているかどうかを評価しようとすると、組織は問題に直面します。
原則として、GDPRは、民族、宗教、性的嗜好に関するデータを含む特定の「特定のデータのカテゴリ」の使用を禁止している(しばしば「感受性データ」と呼ばれる)。
欧州委員会AI法の提案には、組織がAIシステムの監査に特別なカテゴリのデータを使用することを可能にする条項が含まれている。
本稿では,個人データの特殊カテゴリに関するGDPRのルールが,AIによる差別の防止を妨げているかどうかを問う。
GDPRは多くの状況において特別なカテゴリーデータの使用を禁止していると論じる。
我々はまた、AIシステムによる差別を防止するために、GDPRが個人データの特別なカテゴリの使用を禁止することの例外を作成することに対する議論と反対の議論をマップアップする。
この論文は欧州の法律について論じているが、この論文は欧州以外でも関係があり、世界の多くの政策立案者がプライバシーと非差別政策の緊張を和らげている。
関連論文リスト
- Generative Discrimination: What Happens When Generative AI Exhibits Bias, and What Can Be Done About It [2.2913283036871865]
第1章は、genAIが非差別法とどのように交わるかを考察する。
差別的アウトプットには2つの主要な種類がある: (i) 嫌悪的内容と (ii) 保護されたグループの不適切な表現による微妙なバイアス。
差別的なアウトプットに責任を負うgenAIプロバイダやデプロイの保持を主張し、genAI固有の問題に対処する従来の法的枠組みの不十分さを強調している。
論文 参考訳(メタデータ) (2024-06-26T13:32:58Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - A Normative approach to Attest Digital Discrimination [6.372554934045607]
例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T15:14:52Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。