論文の概要: Task-aware Privacy Preservation for Multi-dimensional Data
- arxiv url: http://arxiv.org/abs/2110.02329v1
- Date: Tue, 5 Oct 2021 20:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 10:19:22.951254
- Title: Task-aware Privacy Preservation for Multi-dimensional Data
- Title(参考訳): 多次元データに対するタスクアウェアプライバシ保護
- Authors: Jiangnan Cheng, Ao Tang, Sandeep Chinchali
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、プライバシ保護のための最先端技術である。
将来的には、よりリッチなユーザデータ属性を匿名化するために、LCPを採用することができる。
課題認識型プライバシ保存問題を考慮し,多次元ユーザデータの究極のタスク性能を大幅に向上させる方法について述べる。
- 参考スコア(独自算出の注目度): 4.138783926370621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy (LDP), a state-of-the-art technique for privacy
preservation, has been successfully deployed in a few real-world applications.
In the future, LDP can be adopted to anonymize richer user data attributes that
will be input to more sophisticated machine learning (ML) tasks. However,
today's LDP approaches are largely task-agnostic and often lead to sub-optimal
performance -- they will simply inject noise to all data attributes according
to a given privacy budget, regardless of what features are most relevant for an
ultimate task. In this paper, we address how to significantly improve the
ultimate task performance for multi-dimensional user data by considering a
task-aware privacy preservation problem. The key idea is to use an
encoder-decoder framework to learn (and anonymize) a task-relevant latent
representation of user data, which gives an analytical near-optimal solution
for a linear setting with mean-squared error (MSE) task loss. We also provide
an approximate solution through a learning algorithm for general nonlinear
cases. Extensive experiments demonstrate that our task-aware approach
significantly improves ultimate task accuracy compared to a standard benchmark
LDP approach while guaranteeing the same level of privacy.
- Abstract(参考訳): プライバシー保護のための最先端技術であるlocal differential privacy(ldp)は、いくつかの実世界のアプリケーションでうまくデプロイされている。
将来的には、より高度な機械学習(ml)タスクに入力されるよりリッチなユーザーデータ属性を匿名化するために、ldpを採用することができる。
しかし、今日のldpアプローチは、ほとんどタスクに依存しず、しばしば最適以下のパフォーマンスをもたらす -- 究極のタスクに最も関係のある機能に関係なく、与えられたプライバシー予算に従って、すべてのデータ属性にノイズを注入するだけでよい。
本稿では,タスク認識型プライバシ保存問題を考慮し,多次元ユーザデータの究極のタスク性能を大幅に向上させる方法について述べる。
鍵となるアイデアは、エンコーダ・デコーダフレームワークを使用して、ユーザデータのタスク関連潜在表現を学習(および匿名化)することであり、平均二乗誤差(MSE)タスク損失を持つ線形設定に対する分析的近似解を提供する。
また,一般非線形ケースに対する学習アルゴリズムによる近似解も提供する。
大規模な実験により,我々のタスク認識アプローチは,同じレベルのプライバシを確保しつつ,標準のLCPアプローチと比較して,究極のタスク精度を著しく向上することが示された。
関連論文リスト
- DP-CDA: An Algorithm for Enhanced Privacy Preservation in Dataset Synthesis Through Randomized Mixing [0.8739101659113155]
有効なデータパブリッシングアルゴリズムであるemphDP-CDAを導入する。
提案アルゴリズムは、クラス固有の方法でデータをランダムに混合し、プライバシー保証を確保するために慎重に調整されたランダム性を誘導することにより、合成データセットを生成する。
以上の結果から,DP-CDAを用いた合成データセットは,同一のプライバシー要件下であっても,従来のデータパブリッシングアルゴリズムで生成したデータセットよりも優れた実用性が得られることが示唆された。
論文 参考訳(メタデータ) (2024-11-25T06:14:06Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Differentially Private Active Learning: Balancing Effective Data Selection and Privacy [11.716423801223776]
標準学習設定のための差分プライベートアクティブラーニング(DP-AL)を導入する。
本研究では,DP-SGDトレーニングをALに統合することで,プライバシ予算の割り当てやデータ利用において大きな課題が生じることを実証する。
視覚および自然言語処理タスクに関する実験は,DP-ALが特定のデータセットやモデルアーキテクチャの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-10-01T09:34:06Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - A Secure Federated Data-Driven Evolutionary Multi-objective Optimization
Algorithm [18.825123863744906]
データ駆動の進化的アルゴリズムの多くは中央集権的であり、プライバシーとセキュリティの懸念を引き起こす。
本稿では,セキュアなフェデレーションデータ駆動型進化的多目的最適化アルゴリズムを提案する。
実験結果から,提案アルゴリズムはプライバシーを保護し,無意識の犠牲だけでセキュリティを高めることができることがわかった。
論文 参考訳(メタデータ) (2022-10-15T13:39:49Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。