論文の概要: A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets
- arxiv url: http://arxiv.org/abs/2111.13304v1
- Date: Fri, 26 Nov 2021 03:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:48:57.904069
- Title: A Proposal for Amending Privacy Regulations to Tackle the Challenges
Stemming from Combining Data Sets
- Title(参考訳): データセットの組み合わせに起因する課題に取り組むためのプライバシー規制改正の提案
- Authors: G\'abor Erd\'elyi, Olivia J. Erd\'elyi, and Andreas W. Kempa-Liehr
- Abstract要約: 私たちは、AI駆動のデータ処理プラクティスがもたらす影響を適切に解決する現在のデータ保護規制の能力に、いくつかの欠点に焦点を当てています。
プライバシー規制は個人のプライバシーに対する期待に頼らず、2つの方向の規制改革を推奨する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern information and communication technology practices present novel
threats to privacy. We focus on some shortcomings in current data protection
regulation's ability to adequately address the ramifications of AI-driven data
processing practices, in particular those of combining data sets. We propose
that privacy regulation relies less on individuals' privacy expectations and
recommend regulatory reform in two directions: (1) abolishing the distinction
between personal and anonymized data for the purposes of triggering the
application of data protection laws and (2) developing methods to prioritize
regulatory intervention based on the level of privacy risk posed by individual
data processing actions. This is an interdisciplinary paper that intends to
build a bridge between the various communities involved in privacy research. We
put special emphasis on linking technical notions with their regulatory
implications and introducing the relevant technical and legal terminology in
use to foster more efficient coordination between the policymaking and
technical communities and enable a timely solution of the problems raised.
- Abstract(参考訳): 現代の情報通信技術はプライバシーに新たな脅威をもたらす。
我々は、現在のデータ保護規則がai駆動のデータ処理プラクティス、特にデータセットを組み合わせることによる影響を適切に対処できる能力の欠点に焦点をあてている。
プライバシー規制は個人のプライバシーに対する期待を減らし,(1)データ保護法の適用を促す目的で個人データと匿名データの区別を廃止すること,(2)個々のデータ処理行動によるプライバシーリスクのレベルに基づく規制介入の優先順位付け方法を開発すること,の2つの方向に規制改革を推奨することを提案する。
この論文は、プライバシー研究に関わる様々なコミュニティ間の橋渡しを意図した学際的な論文である。
我々は,技術概念と規制含意を結びつけること,関連する技術的・法的用語を導入して,政策立案と技術コミュニティのより効率的な連携を促進し,課題のタイムリーな解決を可能にすることを特別に強調した。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification [0.0]
本稿では,プライバシコンプライアンスのためのLarge Language Model (LLM)とSemantic Webベースのアプローチを提案する。
PrivComp-KGは、プライバシーポリシーに関する包括的な情報を効率的に保存し、取り出すように設計されている。
各ベンダーが関連するポリシー規則に違反するプライバシーポリシーの遵守を確認するよう問い合わせることができる。
論文 参考訳(メタデータ) (2024-04-30T17:44:44Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.9208007322096533]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy Risks of Algorithmic Recourse [17.33484111779023]
対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
論文 参考訳(メタデータ) (2022-11-10T09:04:24Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits [17.039484057126337]
通信ボトルネックとデータプライバシは、連邦化された多武装バンディット(MAB)問題において2つの重要な問題である。
このような問題に対して,プライバシ保存型通信効率アルゴリズムを設計し,後悔の観点から,プライバシ,コミュニケーション,学習性能の相互作用について検討する。
論文 参考訳(メタデータ) (2021-11-02T12:56:12Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。