論文の概要: Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems
- arxiv url: http://arxiv.org/abs/2101.06203v1
- Date: Fri, 15 Jan 2021 16:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:10:16.875227
- Title: Reviving Purpose Limitation and Data Minimisation in Personalisation,
Profiling and Decision-Making Systems
- Title(参考訳): パーソナライズ・プロファイリング・意思決定システムにおける目的制限の復活とデータ最小化
- Authors: Mich\`ele Finck and Asia Biega
- Abstract要約: 本論文では、学際法則とコンピュータサイエンスレンズを通じて、データ駆動システムにおいてデータ最小化と目的制限を有意義に実装できるかどうかを決定する。
分析の結果,この2つの法原則が個人データ処理のリスク軽減に重要な役割を担っていることが明らかとなった。
これらの原則は検討中のシステムにおいて重要なセーフガードであるが、実用的な実装には重要な制限がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper determines, through an interdisciplinary law and computer science
lens, whether data minimisation and purpose limitation can be meaningfully
implemented in data-driven algorithmic systems, including personalisation,
profiling and decision-making systems. Our analysis reveals that the two legal
principles continue to play an important role in mitigating the risks of
personal data processing, allowing us to rebut claims that they have become
obsolete. The paper goes beyond this finding, however. We highlight that even
though these principles are important safeguards in the systems under
consideration, there are important limits to their practical implementation,
namely, (i) the difficulties of measuring law and the resulting open
computational research questions as well as a lack of concrete guidelines for
practitioners; (ii) the unacknowledged trade-offs between various GDPR
principles, notably between data minimisation on the one hand and accuracy or
fairness on the other; (iii) the lack of practical means of removing personal
data from trained models in order to ensure legal compliance; and (iv) the
insufficient enforcement of data protection law.
- Abstract(参考訳): 本稿では,分野間法とコンピュータサイエンスレンズを用いて,パーソナライズ,プロファイリング,意思決定システムなどデータ駆動型アルゴリズムシステムにおいて,データ最小化と目的制限が有意義に実装可能かどうかを判定する。
分析の結果、個人データ処理のリスクを軽減する上で、2つの法的原則が引き続き重要な役割を担っていることが明らかになりました。
しかし、この論文はこの発見を超えている。
We highlight that even though these principles are important safeguards in the systems under consideration, there are important limits to their practical implementation, namely, (i) the difficulties of measuring law and the resulting open computational research questions as well as a lack of concrete guidelines for practitioners; (ii) the unacknowledged trade-offs between various GDPR principles, notably between data minimisation on the one hand and accuracy or fairness on the other; (iii) the lack of practical means of removing personal data from trained models in order to ensure legal compliance; and (iv) the insufficient enforcement of data protection law.
関連論文リスト
- The trade-off between data minimization and fairness in collaborative filtering [1.8936798735951967]
一般データ保護規則は、個人個人の個人情報を害から保護することを目的としている。
完全なコンプライアンスはEUでは必須だが、他の地域では必須ではない。
本稿では,データ最小化の原理とレコメンダシステムにおける公平性の関係について検討する。
論文 参考訳(メタデータ) (2024-09-21T02:32:26Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Learning to Limit Data Collection via Scaling Laws: Data Minimization
Compliance in Practice [62.44110411199835]
我々は機械学習法における文献に基づいて、データとシステム性能を結びつけるデータ解釈に基づく収集を制限するフレームワークを提案する。
我々は、性能曲線微分に基づくデータ最小化基準を定式化し、有効かつ解釈可能な分数法法技術を提供する。
論文 参考訳(メタデータ) (2021-07-16T19:59:01Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Operationalizing the Legal Principle of Data Minimization for
Personalization [64.0027026050706]
データ最小化原理の同質な解釈が欠如していることを認識し、パーソナライゼーションの文脈に適用可能な2つの運用定義を探索する。
データ最小化によるパフォーマンス低下はそれほど大きくないかもしれないが、異なるユーザに影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-05-28T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。