論文の概要: On the Utility Recovery Incapability of Neural Net-based Differential
Private Tabular Training Data Synthesizer under Privacy Deregulation
- arxiv url: http://arxiv.org/abs/2211.15809v1
- Date: Mon, 28 Nov 2022 22:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 16:58:46.199609
- Title: On the Utility Recovery Incapability of Neural Net-based Differential
Private Tabular Training Data Synthesizer under Privacy Deregulation
- Title(参考訳): プライバシデリゲーション下におけるニューラルネット型微分プライベートタブラリトレーニングデータの実用性回復性について
- Authors: Yucong Liu, Chi-Hua Wang, Guang Cheng
- Abstract要約: 合成トレーニングデータユーティリティーに対するプライバシー規制の副作用を観察する。
DP-CTGANとPATE-CTGANのプライバシー規制下での実用性回復能力について検討した。
プライバシデリゲーション(Privacy Deregulation)は,必ずしもユーティリティリカバリを意味するものではない。
- 参考スコア(独自算出の注目度): 16.986164573860176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Devising procedures for auditing generative model privacy-utility tradeoff is
an important yet unresolved problem in practice. Existing works concentrates on
investigating the privacy constraint side effect in terms of utility
degradation of the train on synthetic, test on real paradigm of synthetic data
training. We push such understanding on privacy-utility tradeoff to next level
by observing the privacy deregulation side effect on synthetic training data
utility. Surprisingly, we discover the Utility Recovery Incapability of
DP-CTGAN and PATE-CTGAN under privacy deregulation, raising concerns on their
practical applications. The main message is Privacy Deregulation does NOT
always imply Utility Recovery.
- Abstract(参考訳): 生成モデルプライバシ・ユーティリティ・トレードオフの監査手順の策定は、実際には重要な課題であるが未解決の問題である。
既存の研究は、合成データトレーニングの実際のパラダイムに基づいた、合成における列車のユーティリティ劣化の観点から、プライバシ制約の副作用を調査することに集中している。
我々は,プライバシデリゲーションの側面が合成トレーニングデータユーティリティに与える影響を観察することによって,プライバシユーティリティのトレードオフに関する理解を次のレベルに押し上げる。
突如として,DP-CTGANとPATE-CTGANのプライバシー規制下での実用性回復不能が発見され,実用性への懸念が高まった。
プライバシデリゲーション(Privacy Deregulation)は,必ずしもユーティリティリカバリを意味するものではない。
関連論文リスト
- Deep Learning with Data Privacy via Residual Perturbation [13.437435287800668]
いくつかの著名なプライバシー概念が確立され、プライバシー保護ディープラーニング(DL)に利用されている。
本稿では,プライバシー保護のための微分方程式に基づく残差摂動法を提案する。
残差摂動は効率的であり、最先端の個人的降下よりも優れることを示す。
論文 参考訳(メタデータ) (2024-08-11T08:26:43Z) - Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - Practical considerations on using private sampling for synthetic data [1.3654846342364308]
合成データ生成の異なるプライバシは、合成データを自由に使用しながらプライバシを保存する能力のために、多くの注目を集めている。
プライベートサンプリングは、プライバシーと正確性のために厳密な境界を持つ微分プライベートな合成データを構築する最初のノイズフリー手法である。
本稿では,プライベートサンプリングアルゴリズムの実装と,実例における制約の現実性について議論する。
論文 参考訳(メタデータ) (2023-12-12T10:20:04Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Why Is Public Pretraining Necessary for Private Model Training? [50.054565310457306]
公開データに対する事前トレーニングは、非プライベートな設定よりも顕著な利益をもたらすことを示す。
トレードオフは、アルゴリズムが2つのフェーズを通過する必要のある、より深い損失モデルかもしれない、と私たちは主張する。
直観によって導かれた理論的な構成は、公的な事前訓練なしでの私的分離を確実に実証するものである。
論文 参考訳(メタデータ) (2023-02-19T05:32:20Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。