論文の概要: Differentially Private Empirical Cumulative Distribution Functions
- arxiv url: http://arxiv.org/abs/2502.06651v1
- Date: Mon, 10 Feb 2025 16:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:28:56.702390
- Title: Differentially Private Empirical Cumulative Distribution Functions
- Title(参考訳): 差分私的経験的累積分布関数
- Authors: Antoine Barczewski, Amal Mawass, Jan Ramon,
- Abstract要約: 差分プライベートな経験分布関数を計算するための戦略を提案する。
完全な機能を明らかにすることは、プライバシー予算の観点からはより高価であるが、学習者により豊かで価値のある情報を提供することもできる。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: In order to both learn and protect sensitive training data, there has been a growing interest in privacy preserving machine learning methods. Differential privacy has emerged as an important measure of privacy. We are interested in the federated setting where a group of parties each have one or more training instances and want to learn collaboratively without revealing their data. In this paper, we propose strategies to compute differentially private empirical distribution functions. While revealing complete functions is more expensive from the point of view of privacy budget, it may also provide richer and more valuable information to the learner. We prove privacy guarantees and discuss the computational cost, both for a generic strategy fitting any security model and a special-purpose strategy based on secret sharing. We survey a number of applications and present experiments.
- Abstract(参考訳): センシティブなトレーニングデータの学習と保護の両面から,マシンラーニング手法のプライバシ保護への関心が高まっている。
差別化プライバシは、プライバシの重要な尺度として現れています。
私たちは、それぞれに1つ以上のトレーニングインスタンスがあり、データを公開せずに協力的に学びたいという連合的な設定に興味を持っています。
本稿では,微分プライベートな経験分布関数を計算するための戦略を提案する。
完全な機能を明らかにすることは、プライバシー予算の観点からはより高価であるが、学習者により豊かで価値のある情報を提供することもできる。
プライバシ保証を証明し,セキュリティモデルに適合する汎用戦略と,シークレット共有に基づく特別目的戦略の両方について,計算コストを議論する。
いくつかの応用を調査し、実験を行った。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - No free lunch theorem for security and utility in federated learning [20.481170500480395]
複数のパーティがそれぞれのデータからモデルを共同で学習するフェデレートされた学習シナリオでは、適切なアルゴリズムを選択するための2つの相反する目標が存在する。
本稿では、プライバシ損失とユーティリティ損失のトレードオフを統一情報理論の観点から定式化する一般的なフレームワークについて説明する。
論文 参考訳(メタデータ) (2022-03-11T09:48:29Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - CaPC Learning: Confidential and Private Collaborative Learning [30.403853588224987]
本研究では,機密性とプライバシの両方を協調的に達成する最初の手法である,機密・私的協調学習(CaPC)を導入する。
参加者がトレーニングセットに明示的に参加したり、中央モデルをトレーニングする必要なしに、CaPCがコラボレーションを可能にする方法を紹介します。
論文 参考訳(メタデータ) (2021-02-09T23:50:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。