論文の概要: Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception?
- arxiv url: http://arxiv.org/abs/2206.03262v3
- Date: Mon, 28 Nov 2022 11:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:35:10.557805
- Title: Using sensitive data to prevent discrimination by artificial
intelligence: Does the GDPR need a new exception?
- Title(参考訳): 人工知能による差別を防ぐために機密データを使用する:GDPRは新しい例外が必要か?
- Authors: Marvin van Bekkum, Frederik Zuiderveen Borgesius
- Abstract要約: ヨーロッパでは、AIシステムが誤って民族によって差別されるかどうかを評価しようとすると、組織が問題に直面します。
原則として、特定の「特定のデータのカテゴリ」の使用を禁じる。
本稿では、個人データの特殊カテゴリに関するルールが、AIによる差別の防止を妨げているかどうかを問う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Organisations can use artificial intelligence to make decisions about people
for a variety of reasons, for instance, to select the best candidates from many
job applications. However, AI systems can have discriminatory effects when used
for decision-making. To illustrate, an AI system could reject applications of
people with a certain ethnicity, while the organisation did not plan such
ethnicity discrimination. But in Europe, an organisation runs into a problem
when it wants to assess whether its AI system accidentally discriminates based
on ethnicity: the organisation may not know the applicants' ethnicity. In
principle, the GDPR bans the use of certain 'special categories of data'
(sometimes called 'sensitive data'), which include data on ethnicity, religion,
and sexual preference. The proposal for an AI Act of the European Commission
includes a provision that would enable organisations to use special categories
of data for auditing their AI systems. This paper asks whether the GDPR's rules
on special categories of personal data hinder the prevention of AI-driven
discrimination. We argue that the GDPR does prohibit such use of special
category data in many circumstances. We also map out the arguments for and
against creating an exception to the GDPR's ban on using special categories of
personal data, to enable preventing discrimination by AI systems. The paper
discusses European law, but the paper can be relevant outside Europe too, as
many policymakers in the world grapple with the tension between privacy and
non-discrimination policy.
- Abstract(参考訳): 組織は人工知能を使用して、さまざまな理由から人々に関する意思決定を行い、例えば、多くの求人アプリケーションから最高の候補を選ぶことができる。
しかし、AIシステムは意思決定に使用すると差別効果がある。
説明として、AIシステムは特定の民族を持つ人々の適用を拒否する可能性があるが、組織はそのような民族差別を計画しなかった。
しかし、ヨーロッパでは、AIシステムが誤って民族によって差別されているかどうかを評価しようとすると、組織は問題に直面します。
原則として、GDPRは、民族、宗教、性的嗜好に関するデータを含む特定の「特定のデータのカテゴリ」の使用を禁止している(しばしば「感受性データ」と呼ばれる)。
欧州委員会AI法の提案には、組織がAIシステムの監査に特別なカテゴリのデータを使用することを可能にする条項が含まれている。
本稿では,個人データの特殊カテゴリに関するGDPRのルールが,AIによる差別の防止を妨げているかどうかを問う。
GDPRは多くの状況において特別なカテゴリーデータの使用を禁止していると論じる。
我々はまた、AIシステムによる差別を防止するために、GDPRが個人データの特別なカテゴリの使用を禁止することの例外を作成することに対する議論と反対の議論をマップアップする。
この論文は欧州の法律について論じているが、この論文は欧州以外でも関係があり、世界の多くの政策立案者がプライバシーと非差別政策の緊張を和らげている。
関連論文リスト
- AI, insurance, discrimination and unfair differentiation. An overview
and research agenda [0.951828574518325]
我々は、保険業者がAIを使用する2つの状況、すなわち(i)データ集約型保険と(ii)行動ベース保険を区別する。
この2つの傾向は多くの利点をもたらすが、差別効果もあるかもしれない。
我々は、差別とその他の不公平な差別の2種類の差別関連効果に焦点を当てる。
論文 参考訳(メタデータ) (2024-01-22T12:39:36Z) - Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - A Normative approach to Attest Digital Discrimination [6.372554934045607]
例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T15:14:52Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。