論文の概要: Applying Differential Privacy to Tensor Completion
- arxiv url: http://arxiv.org/abs/2110.00539v1
- Date: Fri, 1 Oct 2021 17:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:21:28.227447
- Title: Applying Differential Privacy to Tensor Completion
- Title(参考訳): テンソル補完に差分プライバシーを適用する
- Authors: Zheng Wei, Zhengpin Li, Xiaojun Mao and Jian Wang
- Abstract要約: テンソル完了は、部分的に観察されたテンソルに基づいて、行方不明または観測されていないエントリを埋めることを目的としている。
観測されたテンソルの利用は、多くの実践シナリオにおいて深刻なプライバシー上の懸念を引き起こす。
本稿では,最も広く使用されている2つの分解法に差分プライバシーを適用するためのいくつかのアプローチを含む,堅牢で統一的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.409622409155275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor completion aims at filling the missing or unobserved entries based on
partially observed tensors. However, utilization of the observed tensors often
raises serious privacy concerns in many practical scenarios. To address this
issue, we propose a solid and unified framework that contains several
approaches for applying differential privacy to the two most widely used tensor
decomposition methods: i) CANDECOMP/PARAFAC~(CP) and ii) Tucker decompositions.
For each approach, we establish a rigorous privacy guarantee and meanwhile
evaluate the privacy-accuracy trade-off. Experiments on synthetic and
real-world datasets demonstrate that our proposal achieves high accuracy for
tensor completion while ensuring strong privacy protections.
- Abstract(参考訳): テンソル補完は、部分的に観測されたテンソルに基づいて、欠落または観測されていないエントリを満たすことを目的としている。
しかし、観測されたテンソルの利用は、多くの実践シナリオにおいて深刻なプライバシー上の懸念を引き起こすことが多い。
この問題に対処するため,我々は,最も広く用いられている2つのテンソル分解法に微分プライバシーを適用するためのいくつかのアプローチを含む,堅実で統一されたフレームワークを提案する。
一 CANDECOMP/PARAFAC~(CP)及び
二 タッカー分解
それぞれのアプローチにおいて、厳格なプライバシー保証を確立し、同時にプライバシーと精度のトレードオフを評価します。
合成および実世界のデータセットの実験により、この提案は強力なプライバシー保護を確保しつつ、テンソル完了の精度を向上することを示した。
関連論文リスト
- The Last Iterate Advantage: Empirical Auditing and Principled Heuristic Analysis of Differentially Private SGD [46.71175773861434]
ノイズカットされた勾配勾配(DP-SGD)の簡易なプライバシー解析法を提案する。
各種トレーニング手順に適用したプライバシー監査の結果を予測できることを実験的に示す。
既存のプライバシー監査攻撃は、視覚と言語の両方のタスクにおける分析によって制限されていることを実証的に示しています。
論文 参考訳(メタデータ) (2024-10-08T16:51:10Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Flexible Differentially Private Vertical Federated Learning with
Adaptive Feature Embeddings [24.36847069007795]
垂直連合学習(VFL)は、プライバシー保護の欠陥に対する懸念を刺激している。
本稿では、データプライバシとVFLのタスクユーティリティ目標との微妙な均衡を差分プライバシー(DP)下で検討する。
我々は2つの目標を分離し、それらを順次解決するフレキシブルで汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-26T04:40:51Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Sharp Composition Bounds for Gaussian Differential Privacy via Edgeworth
Expansion [30.680528052804664]
我々は、最近提案されたf差分プライバシーの枠組みにおいて、Edgeworth拡張を使用して構成された分析的および鋭いプライバシー境界のファミリーを紹介する。
これらの新たなバウンダリの優位性は、エラー解析と、プライベートディープニューラルネットワークのトレーニングに使用されるノイズ降下の全体的なプライバシー保証を定量化するアプリケーションによって確認される。
論文 参考訳(メタデータ) (2020-03-10T01:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。