論文の概要: TLDP: An Algorithm of Local Differential Privacy for Tensors
- arxiv url: http://arxiv.org/abs/2502.18227v1
- Date: Tue, 25 Feb 2025 14:11:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:20:29.097502
- Title: TLDP: An Algorithm of Local Differential Privacy for Tensors
- Title(参考訳): TLDP:テンソルの局所微分プライバシーアルゴリズム
- Authors: Yachao Yuan, Xiao Tang, Yu Huang, Jin Wang,
- Abstract要約: 局所微分プライバシー(LDP)法はテンソル要素間の本質的な関係を保たない。
構造的整合性を維持しつつ, ランダムな応答機構を用いて, emphTensors を保存できる emphLDP を提案する。
実世界のデータセットからの理論的分析と経験的発見の両方で、emphLDPはプライバシーを維持しながら優れたユーティリティを実現し、高次元データに対する堅牢なソリューションであることを示している。
- 参考スコア(独自算出の注目度): 9.51320942114215
- License:
- Abstract: Tensor-valued data, increasingly common in applications like spatiotemporal modeling and social networks, pose unique challenges for privacy protection due to their multidimensional structure and the risk of losing critical structural information. Traditional local differential privacy (LDP) methods, designed for scalars and matrices, are insufficient for tensors, as they fail to preserve essential relationships among tensor elements. We introduce TLDP, a novel \emph{LDP} algorithm for \emph{T}ensors, which employs a randomized response mechanism to perturb tensor components while maintaining structural integrity. To strike a better balance between utility and privacy, we incorporate a weight matrix that selectively protects sensitive regions. Both theoretical analysis and empirical findings from real-world datasets show that TLDP achieves superior utility while preserving privacy, making it a robust solution for high-dimensional data.
- Abstract(参考訳): テンソル値のデータは、時空間モデリングやソーシャルネットワークのようなアプリケーションでますます一般的になってきており、多次元構造と重要な構造情報を失うリスクのために、プライバシー保護に固有の課題を提起している。
従来の局所微分プライバシー法(LDP)は、テンソル要素間の本質的な関係を保たないため、テンソルには不十分である。
構造整合性を維持しつつ、テンソル成分の摂動にランダムな応答機構を用いる。
ユーティリティとプライバシのバランスを改善するために、機密性の高い領域を選択的に保護する重み行列を組み込んだ。
実世界のデータセットから得られた理論的解析と経験的発見は、TLDPがプライバシーを維持しながら優れたユーティリティを実現し、高次元データに対する堅牢なソリューションであることを示している。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Noisy Data Meets Privacy: Training Local Models with Post-Processed Remote Queries [7.993286956508782]
LDPKiTは、プライベートデータ配信に合わせたプライバシ保護推論データセットを生成する。
Fashion-MNIST、SVHN、PathMNISTの医療データセットの実験は、LDPKiTがプライバシーを維持しながら有効性を向上させることを示した。
論文 参考訳(メタデータ) (2024-05-25T21:53:58Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - DataLens: Scalable Privacy Preserving Training via Gradient Compression
and Aggregation [15.63770709526671]
スケーラブルなプライバシー保護生成モデルDataLENSを提案します。
その結果,DATALENSは他のベースラインDP生成モデルよりも優れていた。
DataLENSの主要なビルディングブロックの一つである提案されたTOPAGGアプローチをDP SGDトレーニングに適応させます。
論文 参考訳(メタデータ) (2021-03-20T06:14:19Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Secure Deep Graph Generation with Link Differential Privacy [32.671503863933616]
我々は、差分プライバシー(DP)フレームワークを利用して、ディープグラフ生成モデルに厳密なプライバシー制約を定式化し、強制する。
特に、リンク再構成に基づくグラフ生成モデルの勾配に適切なノイズを注入することにより、エッジDPを強制する。
提案した DPGGAN モデルでは,グローバル構造を効果的に保存し,個々のリンクのプライバシを厳格に保護したグラフを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T15:49:17Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。