論文の概要: Private Linear Regression with Differential Privacy and PAC Privacy
- arxiv url: http://arxiv.org/abs/2412.02578v1
- Date: Tue, 03 Dec 2024 17:04:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:48.560968
- Title: Private Linear Regression with Differential Privacy and PAC Privacy
- Title(参考訳): 差分プライバシとPACプライバシを備えたプライベートリニア回帰
- Authors: Hillary Yang,
- Abstract要約: 既存のプライバシを保存する線形回帰法は、よく確立された差分プライバシーの枠組みに依存している。
PACプライバシーはこの文脈ではまだ調査されていない。
差分プライバシとPACプライバシでトレーニングされた線形回帰モデルを、3つの実世界のデータセットで比較する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Linear regression is a fundamental tool for statistical analysis, which has motivated the development of linear regression methods that satisfy provable privacy guarantees so that the learned model reveals little about any one data point used to construct it. Most existing privacy-preserving linear regression methods rely on the well-established framework of differential privacy, while the newly proposed PAC Privacy has not yet been explored in this context. In this paper, we systematically compare linear regression models trained with differential privacy and PAC privacy across three real-world datasets, observing several key findings that impact the performance of privacy-preserving linear regression.
- Abstract(参考訳): 線形回帰は統計解析の基本的なツールであり、証明可能なプライバシ保証を満たす線形回帰手法の開発を動機付け、学習したモデルが構築に使用するデータポイントについてほとんど明らかにしないようにしている。
既存のプライバシ保存線形回帰手法の多くは、よく確立された差分プライバシーの枠組みに依存しているが、新たに提案されたPACプライバシーは、この文脈ではまだ検討されていない。
本稿では,3つの実世界のデータセット間で差分プライバシーとPACプライバシで訓練された線形回帰モデルを体系的に比較し,プライバシ保存線形回帰のパフォーマンスに影響を及ぼすいくつかの重要な知見を観察する。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differentially Private Sliced Inverse Regression: Minimax Optimality and
Algorithm [16.14032140601778]
十分な次元削減の文脈において、プライバシー問題に対処するために設計された最適微分プライベートアルゴリズムを提案する。
我々は、対数係数まで最小限の下位境界を達成できる微分プライベートアルゴリズムを開発した。
自然な拡張として、微分プライベートスパース主成分分析に類似した下界と上界を容易に提供できる。
論文 参考訳(メタデータ) (2024-01-16T06:47:43Z) - Improving the Privacy and Practicality of Objective Perturbation for
Differentially Private Linear Learners [21.162924003105484]
本稿では、より厳密なプライバシー分析と新しい計算ツールにより、目的摂動機構を改良する。
DP-SGDは、非自明なプライバシーのオーバーヘッドと、線形回帰やロジスティック回帰のような単純なモデルに余計な計算複雑性を必要とする。
論文 参考訳(メタデータ) (2023-12-31T20:32:30Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - On the utility and protection of optimization with differential privacy
and classic regularization techniques [9.413131350284083]
本稿では,標準最適化手法に対するDP-SGDアルゴリズムの有効性について検討する。
我々は、差分プライバシーの欠陥と限界について議論し、ドロップアウトとl2-規則化のプライバシー保護特性がしばしば優れていることを実証した。
論文 参考訳(メタデータ) (2022-09-07T14:10:21Z) - Analyzing the Differentially Private Theil-Sen Estimator for Simple Linear Regression [0.9208007322096533]
DPTheilSenのプライバシーと精度特性を厳密に有限サンプル解析する。
我々は、その点推定に付随するために、差分プライベートな信頼区間を生成する方法を示す。
論文 参考訳(メタデータ) (2022-07-27T04:38:37Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。