論文の概要: Correction to Local Information Privacy and Its Applications to Data Aggregation
- arxiv url: http://arxiv.org/abs/2410.12309v1
- Date: Wed, 16 Oct 2024 07:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:40:34.642359
- Title: Correction to Local Information Privacy and Its Applications to Data Aggregation
- Title(参考訳): ローカル情報プライバシーの補正とデータ集約への応用
- Authors: Bo Jiang, Ming Li, Ravi Tandon,
- Abstract要約: 提案したLIP機構のプライバシーパラメータの有効範囲を補正する。
有効なプライバシパラメータの範囲を広げるための効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.429587530570746
- License:
- Abstract: In our previous works, we defined Local Information Privacy (LIP) as a context-aware privacy notion and presented the corresponding privacy-preserving mechanism. Then we claim that the mechanism satisfies epsilon-LIP for any epsilon>0 for arbitrary Px. However, this claim is not completely correct. In this document, we provide a correction to the valid range of privacy parameters of our previously proposed LIP mechanism. Further, we propose efficient algorithms to expand the range of valid privacy parameters. Finally, we discuss the impact of updated results on our original paper's experiments, the rationale of the proposed correction and corrected results.
- Abstract(参考訳): これまでの研究では,LIP(Local Information Privacy)をコンテキスト対応のプライバシ概念として定義し,それに対応するプライバシ保護機構を提示した。
すると、この機構は任意の Px に対して任意の epsilon>0 に対して epsilon-LIP を満たすと主張する。
しかし、この主張は完全には正しいわけではない。
本稿では,従来提案していたLIP機構のプライバシパラメータの有効範囲を補正する。
さらに、有効なプライバシパラメータの範囲を広げるための効率的なアルゴリズムを提案する。
最後に、更新結果が元の論文の実験に与える影響、提案した修正の根拠と修正結果について論じる。
関連論文リスト
- Private Language Models via Truncated Laplacian Mechanism [18.77713904999236]
本稿では,高次元トラカート型ラプラシアン機構と呼ばれる新しいプライベート埋め込み手法を提案する。
提案手法は,従来のプライベート単語埋め込み法に比べて分散度が低いことを示す。
注目すべきは、高いプライバシー体制であっても、私たちのアプローチは、プライベートでないシナリオに比べて、実用性がわずかに低下することです。
論文 参考訳(メタデータ) (2024-10-10T15:25:02Z) - Evaluating the Impact of Local Differential Privacy on Utility Loss via
Influence Functions [11.504012974208466]
我々は、特定のプライバシパラメータ値がモデルのテスト損失にどのように影響するかについて、インフルエンス関数が洞察を与える能力を示す。
提案手法により,データキュレーターは,プライバシ・ユーティリティのトレードオフに最も適したプライバシパラメータを選択できる。
論文 参考訳(メタデータ) (2023-09-15T18:08:24Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - A Unified Approach to Differentially Private Bayes Point Estimation [7.599399338954307]
推定値にランダム化を導入して機密性を強制する,差分プライバシー(DP)が提案されている。
微分プライベート推定の標準的なアルゴリズムは、従来の点推定法の出力に適切な量の雑音を加えることに基づいている。
DP制約下でのデータ生成機構の未知パラメータのベイズ点推定に対する統一ベイズプライベートポイント(UBaPP)アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-18T16:42:49Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - When differential privacy meets NLP: The devil is in the detail [3.5503507997334958]
テキストの書き直しのための微分プライベート自動エンコーダであるADePTの形式解析を行う。
以上の結果から,ADePTは差分プライベートではないことが判明した。
論文 参考訳(メタデータ) (2021-09-07T16:12:25Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。