論文の概要: Privacy in Practice: Private COVID-19 Detection in X-Ray Images
- arxiv url: http://arxiv.org/abs/2211.11434v1
- Date: Mon, 21 Nov 2022 13:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 19:20:23.606274
- Title: Privacy in Practice: Private COVID-19 Detection in X-Ray Images
- Title(参考訳): プライバシ・イン・プラクティス:X線画像におけるプライベート新型コロナウイルス検出
- Authors: Lucas Lange, Maja Schneider, Erhard Rahm
- Abstract要約: 私たちは、差分プライバシー(DP)を満たす機械学習モデルを作成します。
ユーティリティとプライバシのトレードオフを,従来よりも厳格なプライバシ予算よりも広範囲に評価する。
以上の結果から,MIAからのタスク依存的脅威に基づき,DPは実用的プライバシを常に改善するわけではないことが示唆された。
- 参考スコア(独自算出の注目度): 2.397765106673937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) can help fight the COVID-19 pandemic by enabling rapid
screening of large volumes of chest X-ray images. To perform such data analysis
while maintaining patient privacy, we create ML models that satisfy
Differential Privacy (DP). Previous works exploring private COVID-19 ML models
are in part based on small or skewed datasets, are lacking in their privacy
guarantees, and do not investigate practical privacy. In this work, we
therefore suggest several improvements to address these open gaps. We account
for inherent class imbalances in the data and evaluate the utility-privacy
trade-off more extensively and over stricter privacy budgets than in previous
work. Our evaluation is supported by empirically estimating practical privacy
leakage through actual attacks. Based on theory, the introduced DP should help
limit and mitigate information leakage threats posed by black-box Membership
Inference Attacks (MIAs). Our practical privacy analysis is the first to test
this hypothesis on the COVID-19 detection task. In addition, we also re-examine
the evaluation on the MNIST database. Our results indicate that based on the
task-dependent threat from MIAs, DP does not always improve practical privacy,
which we show on the COVID-19 task. The results further suggest that with
increasing DP guarantees, empirical privacy leakage reaches an early plateau
and DP therefore appears to have a limited impact on MIA defense. Our findings
identify possibilities for better utility-privacy trade-offs, and we thus
believe that empirical attack-specific privacy estimation can play a vital role
in tuning for practical privacy.
- Abstract(参考訳): 機械学習(ML)は、大量の胸部X線画像の迅速なスクリーニングを可能にすることで、新型コロナウイルスのパンデミックに対抗するのに役立つ。
患者プライバシを維持しながらこのようなデータ分析を行うため,差分プライバシー(DP)を満たすMLモデルを作成する。
プライベートcovid-19 mlモデルを探求する以前の研究は、部分的には小さなデータセットや歪んだデータセットに基づいており、プライバシの保証が不足しており、実用的なプライバシは調査していない。
そこで本研究では,これらのオープンギャップに対処するためのいくつかの改善を提案する。
我々は、データに固有のクラス不均衡を考慮し、ユーティリティとプライバシのトレードオフをより広範囲に評価し、以前の作業よりも厳格なプライバシー予算を評価します。
我々の評価は、実際の攻撃による実用的なプライバシー漏洩を実証的に推定することで支持される。
理論に基づき、導入されたDPは、ブラックボックスメンバーシップ推論攻撃(MIA)による情報漏洩の脅威を制限するのに役立つ。
当社のプライバシ分析は、この仮説を新型コロナウイルス検出タスクで最初にテストしたものです。
また,MNISTデータベース上での評価も再検討する。
以上の結果から,MIA によるタスク依存的脅威に基づき,DP は必ずしも実際のプライバシを改善するとは限らないことが示唆された。
以上の結果から, DP保証の増加に伴い, 経験的プライバシー漏洩が早期に発生し, DPがMIA防御に限られた影響を及ぼす可能性が示唆された。
そこで我々は,実証的な攻撃固有のプライバシ推定が,実用的なプライバシのチューニングにおいて重要な役割を果たすと考えている。
関連論文リスト
- Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Evaluations of Machine Learning Privacy Defenses are Misleading [25.007083740549845]
機械学習プライバシに対する実証的な防御は、証明可能な差分プライバシの保証を禁止します。
先行評価では、最も脆弱なサンプルのプライバシー漏洩を特徴付けることができない。
論文 参考訳(メタデータ) (2024-04-26T13:21:30Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Privacy-Preserving Distributed Expectation Maximization for Gaussian
Mixture Model using Subspace Perturbation [4.2698418800007865]
フェデレーション学習は、プライベートデータの送信を許可せず、中間更新のみを許可するため、プライバシー上の懸念によって動機付けられている。
我々は、各ステップの更新を安全に計算できる、完全に分散化されたプライバシ保存ソリューションを提案する。
数値検証により,提案手法は,精度とプライバシの両面において,既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-16T09:58:03Z) - A Critical Review on the Use (and Misuse) of Differential Privacy in
Machine Learning [5.769445676575767]
機械学習(ML)におけるプライバシー保護のための差分プライバシー(DP)の利用について概観する。
学習モデルの精度を保つことを目的として,DPベースのML実装が非常に緩いため,DPの高度なプライバシー保証を提供していないことを示す。
論文 参考訳(メタデータ) (2022-06-09T17:13:10Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。