論文の概要: On the Utility Recovery Incapability of Neural Net-based Differential
Private Tabular Training Data Synthesizer under Privacy Deregulation
- arxiv url: http://arxiv.org/abs/2211.15809v1
- Date: Mon, 28 Nov 2022 22:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:58:46.199609
- Title: On the Utility Recovery Incapability of Neural Net-based Differential
Private Tabular Training Data Synthesizer under Privacy Deregulation
- Title(参考訳): プライバシデリゲーション下におけるニューラルネット型微分プライベートタブラリトレーニングデータの実用性回復性について
- Authors: Yucong Liu, Chi-Hua Wang, Guang Cheng
- Abstract要約: 合成トレーニングデータユーティリティーに対するプライバシー規制の副作用を観察する。
DP-CTGANとPATE-CTGANのプライバシー規制下での実用性回復能力について検討した。
プライバシデリゲーション(Privacy Deregulation)は,必ずしもユーティリティリカバリを意味するものではない。
- 参考スコア(独自算出の注目度): 16.986164573860176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Devising procedures for auditing generative model privacy-utility tradeoff is
an important yet unresolved problem in practice. Existing works concentrates on
investigating the privacy constraint side effect in terms of utility
degradation of the train on synthetic, test on real paradigm of synthetic data
training. We push such understanding on privacy-utility tradeoff to next level
by observing the privacy deregulation side effect on synthetic training data
utility. Surprisingly, we discover the Utility Recovery Incapability of
DP-CTGAN and PATE-CTGAN under privacy deregulation, raising concerns on their
practical applications. The main message is Privacy Deregulation does NOT
always imply Utility Recovery.
- Abstract(参考訳): 生成モデルプライバシ・ユーティリティ・トレードオフの監査手順の策定は、実際には重要な課題であるが未解決の問題である。
既存の研究は、合成データトレーニングの実際のパラダイムに基づいた、合成における列車のユーティリティ劣化の観点から、プライバシ制約の副作用を調査することに集中している。
我々は,プライバシデリゲーションの側面が合成トレーニングデータユーティリティに与える影響を観察することによって,プライバシユーティリティのトレードオフに関する理解を次のレベルに押し上げる。
突如として,DP-CTGANとPATE-CTGANのプライバシー規制下での実用性回復不能が発見され,実用性への懸念が高まった。
プライバシデリゲーション(Privacy Deregulation)は,必ずしもユーティリティリカバリを意味するものではない。
関連論文リスト
- Clients Collaborate: Flexible Differentially Private Federated Learning
with Guaranteed Improvement of Utility-Privacy Trade-off [34.2117116062642]
我々は、モデルユーティリティとユーザプライバシのトレードオフを打つために、厳格なプライバシ保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介します。
グローバルなセマンティック空間を円滑にすることで,フェデCEOが破壊されたセマンティック情報を効果的に回復できることを示す。
異なるプライバシ設定の下で、大幅なパフォーマンス改善と厳格なプライバシ保証を観察する。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - On the Inadequacy of Similarity-based Privacy Metrics: Reconstruction
Attacks against "Truly Anonymous Synthetic Data'' [15.0393231456773]
私たちはこの分野の有力企業が提供するプライバシー指標をレビューし、実証的な評価を通じて、プライバシーを推論する上でいくつかの重大な欠陥を指摘しました。
我々は,低密度の列車記録(または降車率)の少なくとも78%をブラックボックスで回復し,単一の生成モデルとプライバシメトリクスにのみアクセスする再構成攻撃ReconSynを提案する。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Privacy Implications of Retrieval-Based Language Models [26.87950501433784]
本稿では,検索に基づくLM,特に$k$NN-LMにおけるプライバシリスクに関する最初の研究について述べる。
パラメトリックモデルよりも、$k$NN-LMsの方がプライベートデータストアから個人情報をリークする可能性が高いことがわかりました。
論文 参考訳(メタデータ) (2023-05-24T08:37:27Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Why Is Public Pretraining Necessary for Private Model Training? [50.054565310457306]
公開データに対する事前トレーニングは、非プライベートな設定よりも顕著な利益をもたらすことを示す。
トレードオフは、アルゴリズムが2つのフェーズを通過する必要のある、より深い損失モデルかもしれない、と私たちは主張する。
直観によって導かれた理論的な構成は、公的な事前訓練なしでの私的分離を確実に実証するものである。
論文 参考訳(メタデータ) (2023-02-19T05:32:20Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。