論文の概要: Task-aware Privacy Preservation for Multi-dimensional Data
- arxiv url: http://arxiv.org/abs/2110.02329v1
- Date: Tue, 5 Oct 2021 20:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 10:19:22.951254
- Title: Task-aware Privacy Preservation for Multi-dimensional Data
- Title(参考訳): 多次元データに対するタスクアウェアプライバシ保護
- Authors: Jiangnan Cheng, Ao Tang, Sandeep Chinchali
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、プライバシ保護のための最先端技術である。
将来的には、よりリッチなユーザデータ属性を匿名化するために、LCPを採用することができる。
課題認識型プライバシ保存問題を考慮し,多次元ユーザデータの究極のタスク性能を大幅に向上させる方法について述べる。
- 参考スコア(独自算出の注目度): 4.138783926370621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy (LDP), a state-of-the-art technique for privacy
preservation, has been successfully deployed in a few real-world applications.
In the future, LDP can be adopted to anonymize richer user data attributes that
will be input to more sophisticated machine learning (ML) tasks. However,
today's LDP approaches are largely task-agnostic and often lead to sub-optimal
performance -- they will simply inject noise to all data attributes according
to a given privacy budget, regardless of what features are most relevant for an
ultimate task. In this paper, we address how to significantly improve the
ultimate task performance for multi-dimensional user data by considering a
task-aware privacy preservation problem. The key idea is to use an
encoder-decoder framework to learn (and anonymize) a task-relevant latent
representation of user data, which gives an analytical near-optimal solution
for a linear setting with mean-squared error (MSE) task loss. We also provide
an approximate solution through a learning algorithm for general nonlinear
cases. Extensive experiments demonstrate that our task-aware approach
significantly improves ultimate task accuracy compared to a standard benchmark
LDP approach while guaranteeing the same level of privacy.
- Abstract(参考訳): プライバシー保護のための最先端技術であるlocal differential privacy(ldp)は、いくつかの実世界のアプリケーションでうまくデプロイされている。
将来的には、より高度な機械学習(ml)タスクに入力されるよりリッチなユーザーデータ属性を匿名化するために、ldpを採用することができる。
しかし、今日のldpアプローチは、ほとんどタスクに依存しず、しばしば最適以下のパフォーマンスをもたらす -- 究極のタスクに最も関係のある機能に関係なく、与えられたプライバシー予算に従って、すべてのデータ属性にノイズを注入するだけでよい。
本稿では,タスク認識型プライバシ保存問題を考慮し,多次元ユーザデータの究極のタスク性能を大幅に向上させる方法について述べる。
鍵となるアイデアは、エンコーダ・デコーダフレームワークを使用して、ユーザデータのタスク関連潜在表現を学習(および匿名化)することであり、平均二乗誤差(MSE)タスク損失を持つ線形設定に対する分析的近似解を提供する。
また,一般非線形ケースに対する学習アルゴリズムによる近似解も提供する。
大規模な実験により,我々のタスク認識アプローチは,同じレベルのプライバシを確保しつつ,標準のLCPアプローチと比較して,究極のタスク精度を著しく向上することが示された。
関連論文リスト
- Persona-DB: Efficient Large Language Model Personalization for Response
Prediction with Collaborative Data Refinement [82.56964750522161]
本稿では,タスクコンテキスト間の一般化を改善するため,階層的な構築プロセスからなるシンプルなフレームワークであるPersona-DBを紹介する。
応答予測のタスクでは,Persona-DBは,検索サイズを大幅に削減した精度を維持する上で,優れた効率性を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで15%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - From Principle to Practice: Vertical Data Minimization for Machine
Learning [15.880586296169687]
政策立案者はデータ最小化(DM)原則の遵守をますます要求している。
規制圧力にもかかわらず、DMに従う機械学習モデルをデプロイする問題は、今のところほとんど注目されていない。
データ一般化に基づく新しい垂直DM(vDM)ワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-17T13:01:09Z) - On Memorization and Privacy Risks of Sharpness Aware Minimization [7.515042219136927]
シャープネス認識最小化(SAM)によって達成される一般化ゲインは、非定型データポイントに対して特に顕著である。
この洞察はSAMに関連する高いプライバシーリスクを明らかにするのに役立ち、徹底的な経験的評価を通じて検証する。
論文 参考訳(メタデータ) (2023-09-30T20:59:07Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A Secure Federated Data-Driven Evolutionary Multi-objective Optimization
Algorithm [18.825123863744906]
データ駆動の進化的アルゴリズムの多くは中央集権的であり、プライバシーとセキュリティの懸念を引き起こす。
本稿では,セキュアなフェデレーションデータ駆動型進化的多目的最適化アルゴリズムを提案する。
実験結果から,提案アルゴリズムはプライバシーを保護し,無意識の犠牲だけでセキュリティを高めることができることがわかった。
論文 参考訳(メタデータ) (2022-10-15T13:39:49Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Private Alternating Least Squares: Practical Private Matrix Completion
with Tighter Rates [34.023599653814415]
ユーザレベルのプライバシの下で、差分的プライベート(DP)行列補完の問題について検討する。
本稿では,Alternating-Least-Squares (ALS) 方式の差分型を設計する。
論文 参考訳(メタデータ) (2021-07-20T23:19:11Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。