論文の概要: A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets
- arxiv url: http://arxiv.org/abs/2111.13304v1
- Date: Fri, 26 Nov 2021 03:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:48:57.904069
- Title: A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets
- Title(参考訳): データセットの組み合わせに起因する課題に取り組むためのプライバシー規制改正の提案
- Authors: G\'abor Erd\'elyi, Olivia J. Erd\'elyi, and Andreas W. Kempa-Liehr
- Abstract要約: 私たちは、AI駆動のデータ処理プラクティスがもたらす影響を適切に解決する現在のデータ保護規制の能力に、いくつかの欠点に焦点を当てています。
プライバシー規制は個人のプライバシーに対する期待に頼らず、2つの方向の規制改革を推奨する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern information and communication technology practices present novel
threats to privacy. We focus on some shortcomings in current data protection
regulation's ability to adequately address the ramifications of AI-driven data
processing practices, in particular those of combining data sets. We propose
that privacy regulation relies less on individuals' privacy expectations and
recommend regulatory reform in two directions: (1) abolishing the distinction
between personal and anonymized data for the purposes of triggering the
application of data protection laws and (2) developing methods to prioritize
regulatory intervention based on the level of privacy risk posed by individual
data processing actions. This is an interdisciplinary paper that intends to
build a bridge between the various communities involved in privacy research. We
put special emphasis on linking technical notions with their regulatory
implications and introducing the relevant technical and legal terminology in
use to foster more efficient coordination between the policymaking and
technical communities and enable a timely solution of the problems raised.
- Abstract(参考訳): 現代の情報通信技術はプライバシーに新たな脅威をもたらす。
我々は、現在のデータ保護規則がai駆動のデータ処理プラクティス、特にデータセットを組み合わせることによる影響を適切に対処できる能力の欠点に焦点をあてている。
プライバシー規制は個人のプライバシーに対する期待を減らし,(1)データ保護法の適用を促す目的で個人データと匿名データの区別を廃止すること,(2)個々のデータ処理行動によるプライバシーリスクのレベルに基づく規制介入の優先順位付け方法を開発すること,の2つの方向に規制改革を推奨することを提案する。
この論文は、プライバシー研究に関わる様々なコミュニティ間の橋渡しを意図した学際的な論文である。
我々は,技術概念と規制含意を結びつけること,関連する技術的・法的用語を導入して,政策立案と技術コミュニティのより効率的な連携を促進し,課題のタイムリーな解決を可能にすることを特別に強調した。
関連論文リスト
- Open Government Data Programs and Information Privacy Concerns: A
Literature Review [0.0]
発見は、公正な情報慣行、再識別リスク、オープン政府データ(OGD)価値提案との矛盾、スマートシティデータプラクティスが文献における重要なプライバシー上の懸念であることを示している。
提案されている解決策には、プライバシーの懸念を軽減するための技術的、法的、手続き的な措置が含まれる。
論文 参考訳(メタデータ) (2023-12-14T16:03:49Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - On Differentially Private Online Predictions [74.01773626153098]
オンラインプロセスを扱うために,共同微分プライバシーのインタラクティブなバリエーションを導入する。
グループプライバシ、コンポジション、ポストプロセッシングの(適切なバリエーション)を満たすことを実証する。
次に、オンライン分類の基本設定において、インタラクティブな共同プライバシーのコストについて検討する。
論文 参考訳(メタデータ) (2023-02-27T19:18:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits [17.039484057126337]
通信ボトルネックとデータプライバシは、連邦化された多武装バンディット(MAB)問題において2つの重要な問題である。
このような問題に対して,プライバシ保存型通信効率アルゴリズムを設計し,後悔の観点から,プライバシ,コミュニケーション,学習性能の相互作用について検討する。
論文 参考訳(メタデータ) (2021-11-02T12:56:12Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy
Gradients [93.65993173260318]
報酬を最大化するポリシーを訓練し、そのアクションを通じて特定の機密状態変数の開示を最小化するタスクを考える。
この設定は、シーケンシャルな意思決定のためのプライバシーにおける現実世界の問題をどのようにカバーするかを例に示します。
実験の結果,本手法は敏感な状態を隠蔽する方針が得られた。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。