論文の概要: You Still See Me: How Data Protection Supports the Architecture of ML
Surveillance
- arxiv url: http://arxiv.org/abs/2402.06609v2
- Date: Sun, 18 Feb 2024 14:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 01:08:06.983754
- Title: You Still See Me: How Data Protection Supports the Architecture of ML
Surveillance
- Title(参考訳): データ保護がMLサーベイランスのアーキテクチャをどのようにサポートするか
- Authors: Rui-Jie Yew, Lucy Qin, Suresh Venkatasubramanian
- Abstract要約: 人間のデータは機械学習のバックボーンを形成する。
データ保護法は、MLシステムの管理方法に強く依存している。
データ保護技術は、しばしば監視のインフラをサポートする方法で実施されている、と私たちは主張する。
- 参考スコア(独自算出の注目度): 6.731053352452566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human data forms the backbone of machine learning. Data protection laws thus
have strong bearing on how ML systems are governed. Given that most
requirements in data protection laws accompany the processing of personal data,
organizations have an incentive to keep their data out of legal scope. This
makes the development and application of certain privacy-preserving
techniques--data protection techniques--an important strategy for ML
compliance. In this paper, we examine the impact of a rhetoric that deems data
wrapped in these techniques as data that is "good-to-go". We show how their
application in the development of ML systems--from private set intersection as
part of dataset curation to homomorphic encryption and federated learning as
part of model computation--can further support individual monitoring and data
consolidation. With data accumulation at the core of how the ML pipeline is
configured, we argue that data protection techniques are often instrumentalized
in ways that support infrastructures of surveillance, rather than in ways that
protect individuals associated with data. Finally, we propose technology and
policy strategies to evaluate data protection techniques in light of the
protections they actually confer. We conclude by highlighting the role that
technologists might play in devising policies that combat surveillance ML
technologies.
- Abstract(参考訳): 人間のデータは機械学習のバックボーンを形成する。
したがって、データ保護法はMLシステムの管理方法に強く依存する。
個人データの処理に伴うデータ保護法の要件がほとんどであることを踏まえると、組織には、データを法的スコープから遠ざけるインセンティブがある。
これにより、特定のプライバシー保護技術(データ保護技術)の開発と応用が、ml準拠の重要な戦略となる。
本稿では,これらの手法でラップされたデータを「良い」データとみなす修辞学の影響について検討する。
モデル計算の一部として、データセットキュレーションの一部としてのプライベートセットの交差から、同型暗号化やフェデレーション学習に至るまで、MLシステムの開発におけるそれらの応用が、個別の監視とデータ統合をさらに支援できることを示す。
mlパイプラインの構成方法のコアにデータ蓄積があるため、データ保護技術は、データに関連する個人を保護する方法ではなく、監視のインフラストラクチャをサポートする方法で具現化されることが多い、と私たちは主張する。
最後に,データ保護技術を評価するための技術と政策戦略を提案する。
我々は、監視機械学習技術と戦う政策を策定する上で、技術者が果たす役割を強調して締めくくります。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE [0.9442139459221784]
データの誤用、個人のプライバシーの妥協、および/または承認されたデータの処理は不可逆である。
これは部分的には、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法やガイダンスの欠如によるものである。
データコントローラと開発者のためのガイダンスを提供するために、プライバシーとデータ保護のベストプラクティスの例を示す。
論文 参考訳(メタデータ) (2022-01-10T15:34:43Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Learning to Limit Data Collection via Scaling Laws: Data Minimization
Compliance in Practice [62.44110411199835]
我々は機械学習法における文献に基づいて、データとシステム性能を結びつけるデータ解釈に基づく収集を制限するフレームワークを提案する。
我々は、性能曲線微分に基づくデータ最小化基準を定式化し、有効かつ解釈可能な分数法法技術を提供する。
論文 参考訳(メタデータ) (2021-07-16T19:59:01Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning [10.190911271176201]
機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
論文 参考訳(メタデータ) (2020-07-18T06:21:35Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。