論文の概要: Applying Differential Privacy to Tensor Completion
- arxiv url: http://arxiv.org/abs/2110.00539v1
- Date: Fri, 1 Oct 2021 17:08:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:21:28.227447
- Title: Applying Differential Privacy to Tensor Completion
- Title(参考訳): テンソル補完に差分プライバシーを適用する
- Authors: Zheng Wei, Zhengpin Li, Xiaojun Mao and Jian Wang
- Abstract要約: テンソル完了は、部分的に観察されたテンソルに基づいて、行方不明または観測されていないエントリを埋めることを目的としている。
観測されたテンソルの利用は、多くの実践シナリオにおいて深刻なプライバシー上の懸念を引き起こす。
本稿では,最も広く使用されている2つの分解法に差分プライバシーを適用するためのいくつかのアプローチを含む,堅牢で統一的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.409622409155275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor completion aims at filling the missing or unobserved entries based on
partially observed tensors. However, utilization of the observed tensors often
raises serious privacy concerns in many practical scenarios. To address this
issue, we propose a solid and unified framework that contains several
approaches for applying differential privacy to the two most widely used tensor
decomposition methods: i) CANDECOMP/PARAFAC~(CP) and ii) Tucker decompositions.
For each approach, we establish a rigorous privacy guarantee and meanwhile
evaluate the privacy-accuracy trade-off. Experiments on synthetic and
real-world datasets demonstrate that our proposal achieves high accuracy for
tensor completion while ensuring strong privacy protections.
- Abstract(参考訳): テンソル補完は、部分的に観測されたテンソルに基づいて、欠落または観測されていないエントリを満たすことを目的としている。
しかし、観測されたテンソルの利用は、多くの実践シナリオにおいて深刻なプライバシー上の懸念を引き起こすことが多い。
この問題に対処するため,我々は,最も広く用いられている2つのテンソル分解法に微分プライバシーを適用するためのいくつかのアプローチを含む,堅実で統一されたフレームワークを提案する。
一 CANDECOMP/PARAFAC~(CP)及び
二 タッカー分解
それぞれのアプローチにおいて、厳格なプライバシー保証を確立し、同時にプライバシーと精度のトレードオフを評価します。
合成および実世界のデータセットの実験により、この提案は強力なプライバシー保護を確保しつつ、テンソル完了の精度を向上することを示した。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - On the Privacy of Selection Mechanisms with Gaussian Noise [50.10075455235939]
ガウス雑音によるReport Noisy MaxとAbove Thresholdの分析を再検討する。
その結果,Report Noisy Max の純元 DP 境界と Above Threshold の純元 DP 境界を提供することが可能であることがわかった。
論文 参考訳(メタデータ) (2024-02-09T02:11:25Z) - Flexible Differentially Private Vertical Federated Learning with
Adaptive Feature Embeddings [24.36847069007795]
垂直連合学習(VFL)は、プライバシー保護の欠陥に対する懸念を刺激している。
本稿では、データプライバシとVFLのタスクユーティリティ目標との微妙な均衡を差分プライバシー(DP)下で検討する。
我々は2つの目標を分離し、それらを順次解決するフレキシブルで汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-26T04:40:51Z) - Decentralized Matrix Factorization with Heterogeneous Differential
Privacy [2.4743508801114444]
信頼できないリコメンデータに対して, 異種差分行列分解アルゴリズム(HDPMF)を提案する。
我々のフレームワークは、プライバシと精度のトレードオフを改善するために、革新的な再スケーリングスキームを備えた拡張ストレッチ機構を使用している。
論文 参考訳(メタデータ) (2022-12-01T06:48:18Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - One-Bit Matrix Completion with Differential Privacy [6.409622409155275]
差分プライバシー制約下での1ビット行列補完のための新しいフレームワークを提案する。
提案手法は, 精度を損なうことなく, 高いレベルのプライバシを維持することができる。
論文 参考訳(メタデータ) (2021-10-02T03:49:55Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z) - Sharp Composition Bounds for Gaussian Differential Privacy via Edgeworth
Expansion [30.680528052804664]
我々は、最近提案されたf差分プライバシーの枠組みにおいて、Edgeworth拡張を使用して構成された分析的および鋭いプライバシー境界のファミリーを紹介する。
これらの新たなバウンダリの優位性は、エラー解析と、プライベートディープニューラルネットワークのトレーニングに使用されるノイズ降下の全体的なプライバシー保証を定量化するアプリケーションによって確認される。
論文 参考訳(メタデータ) (2020-03-10T01:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。