論文の概要: Fairness and Data Protection Impact Assessments
- arxiv url: http://arxiv.org/abs/2109.06309v1
- Date: Mon, 13 Sep 2021 20:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 05:10:45.817375
- Title: Fairness and Data Protection Impact Assessments
- Title(参考訳): 公正性とデータ保護影響評価
- Authors: Atoosa Kasirzadeh, Damian Clifford
- Abstract要約: 本稿では,データ影響評価を行うための要件の有効性を批判的に検討する。
一般データ保護規則第35条において公正原則の役割について考察する。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we critically examine the effectiveness of the requirement to
conduct a Data Protection Impact Assessment (DPIA) in Article 35 of the General
Data Protection Regulation (GDPR) in light of fairness metrics. Through this
analysis, we explore the role of the fairness principle as introduced in
Article 5(1)(a) and its multifaceted interpretation in the obligation to
conduct a DPIA. Our paper argues that although there is a significant
theoretical role for the considerations of fairness in the DPIA process, an
analysis of the various guidance documents issued by data protection
authorities on the obligation to conduct a DPIA reveals that they rarely
mention the fairness principle in practice.
- Abstract(参考訳): 本稿では, 一般データ保護規則(GDPR)第35条におけるデータ保護影響評価(DPIA)の実施要件の有効性を, 公平性指標の観点から検証する。
この分析を通じて,第5条(1)(a)に導入された公正原則の役割と,その多面的解釈をDPIAの実施義務として考察する。
本論では,DPIAプロセスの公正性に関する考察には重要な理論的役割があるものの,データ保護当局によるDPIA実施義務に関する各種ガイダンス文書の分析から,実際に公正性原則に言及されることはめったにないことが明らかとなった。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - Mapping the Empirical Evidence of the GDPR (In-)Effectiveness: A Systematic Review [6.374104128524161]
経験的証拠の質素な体が生成されているが、広く散在し、検討されていない。
そこで我々は,30年近くにわたる実証研究の総合的なレビューと合成を行う。
論文 参考訳(メタデータ) (2023-10-25T16:07:46Z) - Expert opinions on making GDPR usable [0.0]
私たちは、法律とデータ保護/プライバシ、認定と標準化、ユーザビリティの4つの概念に関連性のある、回答者のエキスパートとして使用しています。
我々は,「基準」,「法」,「使用可能性」の3つの専門家グループを表すデータを,産業と学界の両方から分析するために,理論三角測量を用いた。
論文 参考訳(メタデータ) (2023-08-16T11:20:16Z) - FairDP: Certified Fairness with Differential Privacy [59.56441077684935]
本稿では,FairDPについて紹介する。FairDPは,差分プライバシ(DP)による証明された公正性を実現するために設計された,新しいメカニズムである。
FairDPは個別に個別のグループのモデルを訓練し、グループ固有のクリッピング用語を用いてDPの異なる影響を評価し、バウンドする。
広範に理論的および実証的な分析により、FairDPの有効性が検証され、モデルユーティリティ、プライバシ、フェアネス間のトレードオフが改善された。
論文 参考訳(メタデータ) (2023-05-25T21:07:20Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - A Survey on Legal Judgment Prediction: Datasets, Metrics, Models and
Challenges [73.34944216896837]
法定判断予測(LJP)は,事実記述に基づく判断結果の自動予測に自然言語処理(NLP)技術を適用している。
6言語で31のLJPデータセットを分析し、その構築過程を示し、LJPの分類方法を定義する。
異なる訴訟の8つの代表的データセットに対する最先端の結果を示し、オープンな課題について議論する。
論文 参考訳(メタデータ) (2022-04-11T04:06:28Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems [0.0]
本論文では、学際法則とコンピュータサイエンスレンズを通じて、データ駆動システムにおいてデータ最小化と目的制限を有意義に実装できるかどうかを決定する。
分析の結果,この2つの法原則が個人データ処理のリスク軽減に重要な役割を担っていることが明らかとなった。
これらの原則は検討中のシステムにおいて重要なセーフガードであるが、実用的な実装には重要な制限がある。
論文 参考訳(メタデータ) (2021-01-15T16:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。