論文の概要: Classification Under Local Differential Privacy with Model Reversal and Model Averaging
- arxiv url: http://arxiv.org/abs/2602.05797v1
- Date: Thu, 05 Feb 2026 15:52:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.01774
- Title: Classification Under Local Differential Privacy with Model Reversal and Model Averaging
- Title(参考訳): モデルリバーサルとモデル平均化を用いた局所微分プライバシーの分類
- Authors: Caihong Qin, Yang Bai,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、データプライバシ研究において中心的なトピックとなっている。
プライバシーを損なうことなく分類性能を向上させるために, LDP に特化して設計された新しい手法を提案する。
シミュレーションと実世界の両方のデータセットの実証結果は、分類精度を大幅に改善したことを示している。
- 参考スコア(独自算出の注目度): 5.178896452202825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local differential privacy (LDP) has become a central topic in data privacy research, offering strong privacy guarantees by perturbing user data at the source and removing the need for a trusted curator. However, the noise introduced by LDP often significantly reduces data utility. To address this issue, we reinterpret private learning under LDP as a transfer learning problem, where the noisy data serve as the source domain and the unobserved clean data as the target. We propose novel techniques specifically designed for LDP to improve classification performance without compromising privacy: (1) a noised binary feedback-based evaluation mechanism for estimating dataset utility; (2) model reversal, which salvages underperforming classifiers by inverting their decision boundaries; and (3) model averaging, which assigns weights to multiple reversed classifiers based on their estimated utility. We provide theoretical excess risk bounds under LDP and demonstrate how our methods reduce this risk. Empirical results on both simulated and real-world datasets show substantial improvements in classification accuracy.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、データプライバシ研究において中心的なトピックとなり、ソースでユーザデータを摂動させ、信頼できるキュレーターの必要性を取り除くことで、強力なプライバシ保証を提供する。
しかし、LDPによって導入されたノイズは、しばしばデータの有用性を著しく低下させる。
この問題に対処するため,我々は LDP 下での私的学習を伝達学習問題として再解釈し,ノイズの多いデータがソースドメインとして機能し,未観測のクリーンデータがターゲットとして機能する。
プライバシを損なうことなく分類性能を向上させるために, LDPに特化して設計された新しい手法を提案する。(1)データセットユーティリティを推定するための雑音二分フィードバックに基づく評価機構,(2)決定境界を逆転させて分類器を救い出すモデルリバーサル,(3)推定ユーティリティに基づいて重みを複数の逆分類器に割り当てるモデル平均化。
理論的に過剰なリスク境界を LDP で提供し、このリスクをいかに低減するかを実証する。
シミュレーションと実世界の両方のデータセットの実証結果は、分類精度を大幅に改善したことを示している。
関連論文リスト
- Unified Privacy Guarantees for Decentralized Learning via Matrix Factorization [18.709549777027224]
分散学習(DL)では、ネットワークグラフ内の隣人とのローカルアップデートを平均化することにより、生データを共有せずにモデルを協調的にトレーニングすることができる。
DLの強いプライバシー保証は、通常、差分プライバシー(DP)を通じて達成される。
しかし、実際には、観測されたプライバシーユーティリティのトレードオフは、DLの現在のDP会計方法に制限があるため、集中的なトレーニングよりも悪く見えることが多い。
論文 参考訳(メタデータ) (2025-10-20T12:24:27Z) - Dual Utilization of Perturbation for Stream Data Publication under Local Differential Privacy [10.07017446059039]
ローカルディファレンシャルプライバシ(LDP)が有望な標準として登場した。
ストリームデータにLDPを適用することは、大きなあるいは無限の値を含む場合が多いため、大きな課題となる。
本稿では、電流摂動結果を用いてその後の摂動過程を校正する反復摂動IPP法を提案する。
これら3つのアルゴリズムが差分プライバシーを$w$-eventで満たし、実用性を大幅に向上することを証明する。
論文 参考訳(メタデータ) (2025-04-21T09:51:18Z) - Efficient Safety Alignment of Large Language Models via Preference Re-ranking and Representation-based Reward Modeling [84.00480999255628]
大規模言語モデル(LLM)の安全性アライメントのための強化学習アルゴリズムは,分散シフトの課題に直面している。
現在のアプローチでは、ターゲットポリシーからのオンラインサンプリングを通じてこの問題に対処するのが一般的である。
モデル固有の安全判断能力を活用して報酬信号を抽出する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-13T06:40:34Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - LDPKiT: Superimposing Remote Queries for Privacy-Preserving Local Model Training [9.605334766969763]
我々は,非敵対的,プライバシ保護モデル抽出のためのフレームワーク LDPKiT を提案する。
LDPKiTは、およそ分布内サンプルを生成し、局所微分プライバシー(LDP)の下で効果的な知識伝達を可能にする
Fashion-MNIST、SVHN、PathMNISTの実験では、LDPKiTはプライバシーを維持しながら実用性を一貫して改善している。
論文 参考訳(メタデータ) (2024-05-25T21:53:58Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Private and Utility Enhanced Recommendations with Local Differential
Privacy and Gaussian Mixture Model [14.213973630742666]
ローカル差動プライバシー(LDP)ベースの摂動メカニズムは、サービスプロバイダー(SP)に送信する前に、ユーザー側のユーザーデータにノイズを追加します。
LDPはユーザーのプライバシーをSPから保護しますが、予測精度が大幅に低下します。
提案手法は, LDPの原則に違反することなく, 推薦精度を向上する。
論文 参考訳(メタデータ) (2021-02-26T13:15:23Z) - Representation Learning for High-Dimensional Data Collection under Local
Differential Privacy [18.98782927283319]
ローカルディファレンシャルプライバシ(LDP)は、プライバシを保護するための厳格なアプローチを提供する。
既存のLPP機構は低次元データに適用されている。
高次元において、プライバシを誘発するノイズは、データの有用性を大きく損なう。
論文 参考訳(メタデータ) (2020-10-23T15:01:19Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。