論文の概要: Privacy-Preserving ECG Data Analysis with Differential Privacy: A Literature Review and A Case Study
- arxiv url: http://arxiv.org/abs/2406.13880v1
- Date: Wed, 19 Jun 2024 23:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:06:06.762488
- Title: Privacy-Preserving ECG Data Analysis with Differential Privacy: A Literature Review and A Case Study
- Title(参考訳): 差分プライバシーを用いたプライバシー保護型心電図データ分析:文献レビューと事例研究
- Authors: Arin Ghazarian, Jianwei Zheng, Cyril Rakovski,
- Abstract要約: 本稿では、差分プライバシーにおける重要な概念の概要と、ECG分析への応用に関する文献レビューと議論について述べる。
論文の第2部では,6段階のプロセスを用いて不整脈データベース上で,差分プライベートなクエリリリースを実現する方法について検討する。
- 参考スコア(独自算出の注目度): 1.1156009461711638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy has become the preeminent technique to protect the privacy of individuals in a database while allowing useful results from data analysis to be shared. Notably, it guarantees the amount of privacy loss in the worst-case scenario. Although many theoretical research papers have been published, practical real-life application of differential privacy demands estimating several important parameters without any clear solutions or guidelines. In the first part of the paper, we provide an overview of key concepts in differential privacy, followed by a literature review and discussion of its application to ECG analysis. In the second part of the paper, we explore how to implement differentially private query release on an arrhythmia database using a six-step process. We provide guidelines and discuss the related literature for all the steps involved, such as selection of the $\epsilon$ value, distribution of the total $\epsilon$ budget across the queries, and estimation of the sensitivity for the query functions. At the end, we discuss the shortcomings and challenges of applying differential privacy to ECG datasets.
- Abstract(参考訳): 差別化プライバシは、データベース内の個人のプライバシを保護すると同時に、データ分析から有用な結果を共有するための最重要技術となっている。
特に、最悪のシナリオでプライバシーが失われることを保証する。
多くの理論的研究論文が出版されているが、差分プライバシー要求の現実的な応用は、明確な解決策やガイドラインを使わずにいくつかの重要なパラメータを推定する。
論文の第1部では、差分プライバシーにおける重要な概念の概要と、ECG分析への応用に関する文献レビューと議論について述べる。
論文の第2部では,6段階のプロセスを用いて不整脈データベース上で,差分プライベートなクエリリリースを実現する方法について検討する。
例えば$\epsilon$値の選択、クエリ全体の$\epsilon$予算の分配、クエリ関数の感度の推定などです。
最後に,ECGデータセットに差分プライバシーを適用する際の問題点と課題について論じる。
関連論文リスト
- A Statistical Viewpoint on Differential Privacy: Hypothesis Testing, Representation and Blackwell's Theorem [30.365274034429508]
我々は、差分プライバシーはテクストプア統計概念とみなすことができると論じる。
$f$-differential privacyは、データ分析と機械学習のプライバシー境界を分析するための統合フレームワークである。
論文 参考訳(メタデータ) (2024-09-14T23:47:22Z) - Empirical Mean and Frequency Estimation Under Heterogeneous Privacy: A Worst-Case Analysis [5.755004576310333]
微分プライバシー(DP)は、現在プライバシーを測定するための金の標準である。
異種プライバシー制約を考慮した一変量データに対する経験的平均推定とカテゴリーデータに対する周波数推定の問題点を考察する。
提案アルゴリズムは,PAC誤差と平均二乗誤差の両面から最適性を証明し,他のベースライン手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-15T22:46:02Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Individual Privacy Accounting via a Renyi Filter [33.65665839496798]
個人ごとのパーソナライズされたプライバシ損失推定値に基づいて、より厳格なプライバシ損失会計を行う方法を提案する。
我々のフィルターは、Rogersらによる$(epsilon,delta)$-differential privacyの既知のフィルタよりもシンプルできつい。
論文 参考訳(メタデータ) (2020-08-25T17:49:48Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。