論文の概要: Continual Release Moment Estimation with Differential Privacy
- arxiv url: http://arxiv.org/abs/2502.06597v1
- Date: Mon, 10 Feb 2025 15:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:01.769538
- Title: Continual Release Moment Estimation with Differential Privacy
- Title(参考訳): 差分プライバシーを用いた継続的リリースモーメント推定
- Authors: Nikita P. Kalinin, Jalaj Upadhyay, Christoph H. Lampert,
- Abstract要約: JMEは、追加のプライバシーコストなしで第2モーメント推定を可能にするために、マトリックス機構とジョイント感度分析を使用する。
本稿では, ガウス密度推定のための平均値と共分散行列の推定と, CIFAR-10上でのDP-Adamを用いたモデルトレーニングの2つの応用におけるJMEの有効性を示す。
- 参考スコア(独自算出の注目度): 21.27425060140359
- License:
- Abstract: We propose Joint Moment Estimation (JME), a method for continually and privately estimating both the first and second moments of data with reduced noise compared to naive approaches. JME uses the matrix mechanism and a joint sensitivity analysis to allow the second moment estimation with no additional privacy cost, thereby improving accuracy while maintaining privacy. We demonstrate JME's effectiveness in two applications: estimating the running mean and covariance matrix for Gaussian density estimation, and model training with DP-Adam on CIFAR-10.
- Abstract(参考訳): ノイズを低減した第1モーメントと第2モーメントの両方を連続的かつプライベートに推定する手法であるJMEを提案する。
JMEは、マトリックス機構とジョイント感度分析を使用して、追加のプライバシーコストなしで第2モーメント推定を可能にし、プライバシーを維持しながら精度を向上させる。
本稿では, ガウス密度推定のための平均値と共分散行列の推定と, CIFAR-10上でのDP-Adamを用いたモデルトレーニングの2つの応用におけるJMEの有効性を示す。
関連論文リスト
- Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Decentralized Collaborative Learning Framework with External Privacy Leakage Analysis [13.369004892264146]
本稿では,プライバシ制約下での分散マルチタスク学習における2つの方法論的進歩について述べる。
まず,従来の協調辞書学習フレームワークであるCollabDictを拡張し,そのフレームワークに深い変分オートエンコーダ(VAE)を組み込む。
第2に、「事前学習モデル」を広く活用することを考えると、CollabDictでトレーニングされたモデルが外部で共有される場合、データのプライバシー漏洩に関する数学的解析を提供する。
論文 参考訳(メタデータ) (2024-04-01T17:46:17Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Mutual Wasserstein Discrepancy Minimization for Sequential
Recommendation [82.0801585843835]
逐次リコメンデーションのためのMutual WasserStein差分最小化MSteinに基づく新しい自己教師型学習フレームワークを提案する。
また,ワッサーシュタイン離散度測定に基づく新しい学習損失を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:38:48Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - An Experimental Study on Private Aggregation of Teacher Ensemble
Learning for End-to-End Speech Recognition [51.232523987916636]
差分プライバシー(DP)は、プライバシーデータにノイズのある歪みを課すことで、深層モデルのトレーニングに使用されるユーザー情報を保護するための1つのデータ保護手段である。
本研究では、PATE学習を動的パターン、すなわち音声を扱うように拡張し、音響データの漏洩を避けるために、ASRに関する最初の実験を行う。
論文 参考訳(メタデータ) (2022-10-11T16:55:54Z) - Differentially Private Estimation of Heterogeneous Causal Effects [9.355532300027727]
本稿では,条件付き平均治療効果(CATE)を差分プライバシー保証で推定するための一般的なメタアルゴリズムを提案する。
我々のメタアルゴリズムは、SラーナーやDRやRラーナーのようなより複雑な多段推定器のような単純な単段CATE推定器で動作する。
論文 参考訳(メタデータ) (2022-02-22T17:21:18Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Differentially Private Normalizing Flows for Privacy-Preserving Density
Estimation [10.561489862855334]
明示的な差分プライバシー保証を提供する正規化フローモデルの使用を提案します。
このアルゴリズムを差分プライベート異常検出のタスクにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2021-03-25T18:39:51Z) - Improving Deterministic Uncertainty Estimation in Deep Learning for
Classification and Regression [30.112634874443494]
単一前方通過における不確かさを推定する新しいモデルを提案する。
提案手法では,バイリプシッツ特徴抽出器とガウス過程の誘導点を組み合わせ,ロバストかつ原理的不確実性推定を行う。
論文 参考訳(メタデータ) (2021-02-22T23:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。