論文の概要: PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2404.03873v1
- Date: Fri, 5 Apr 2024 03:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:06:15.325928
- Title: PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy
- Title(参考訳): PrivShape: ユーザレベルのローカル差分プライバシーの下での時系列の形状の抽出
- Authors: Yulian Mao, Qingqing Ye, Haibo Hu, Qi Wang, Kai Huang,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、データプライバシを保護する最先端のアプローチとして登場した。
ユーザレベル LDP の下で,全ての要素を保護するためのトリエベース機構である PrivShape を提案する。
実世界のデータセットに関する広範な実験により、PrivShapeはオフラインでの利用に適応した場合、PatternLDPよりも優れていることが実証された。
- 参考スコア(独自算出の注目度): 14.408776376918484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series have numerous applications in finance, healthcare, IoT, and smart city. In many of these applications, time series typically contain personal data, so privacy infringement may occur if they are released directly to the public. Recently, local differential privacy (LDP) has emerged as the state-of-the-art approach to protecting data privacy. However, existing works on LDP-based collections cannot preserve the shape of time series. A recent work, PatternLDP, attempts to address this problem, but it can only protect a finite group of elements in a time series due to {\omega}-event level privacy guarantee. In this paper, we propose PrivShape, a trie-based mechanism under user-level LDP to protect all elements. PrivShape first transforms a time series to reduce its length, and then adopts trie-expansion and two-level refinement to improve utility. By extensive experiments on real-world datasets, we demonstrate that PrivShape outperforms PatternLDP when adapted for offline use, and can effectively extract frequent shapes.
- Abstract(参考訳): 時系列は金融、医療、IoT、スマートシティに多くの応用がある。
これらのアプリケーションの多くでは、時系列は一般的に個人データを含むため、公開時にプライバシー侵害が発生する可能性がある。
近年、データプライバシを保護する最先端のアプローチとして、ローカルディファレンシャルプライバシ(LDP)が登場している。
しかし, LDP に基づくコレクションに関する既存の研究は時系列の形状を保存できない。
最近の研究であるPatternLDPはこの問題に対処しようとするが、時間列内の有限個の要素しか保護できない。
本稿では,PivShapeを提案する。PivShapeは,すべての要素を保護するための,ユーザレベル LDP に基づくトリエベース機構である。
PrivShapeはまず時系列を変換してその長さを減らし、次に三重展開と二重改良を採用して実用性を向上させる。
実世界のデータセットに関する広範な実験により、PrivShapeはオフラインでの使用に適応するとPatternLDPよりも優れ、頻繁な形状を効果的に抽出できることが実証された。
関連論文リスト
- Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - A Framework for Differential Privacy Against Timing Attacks [0.0]
我々は、タイミング側チャネルの存在下での差分プライバシーを確保するための一般的な枠組みを確立する。
タイミングプライバシという新たな概念を定義し、敵に異なるプライベートなプログラムをキャプチャする。
私たちは、OpenDP Programming Frameworkの自然な拡張を通じて、私たちのフレームワークをコードでどのように実現できるかを示します。
論文 参考訳(メタデータ) (2024-09-09T13:56:04Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Differentially Private Synthetic Data via Foundation Model APIs 2: Text [56.13240830670327]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - PrivLM-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [42.20437015301152]
言語モデル(LM)のプライバシー漏洩を評価するベンチマークであるPrivLM-Benchを提案する。
DPパラメータのみを報告するのではなく、PrivLM-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
メインストリームLMのためのGLUEの3つのデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Generalized Linear Bandits with Local Differential Privacy [4.922800530841394]
パーソナライズドメディカルやオンライン広告などの多くのアプリケーションは、効果的な学習のために個人固有の情報を活用する必要がある。
これは、局所微分プライバシー(LDP)というプライバシーの厳格な概念を文脈的盗賊に導入する動機となっている。
本稿では,一般線形バンドレットに対するLDPアルゴリズムを設計し,非プライバシ設定と同じ後悔点を実現する。
論文 参考訳(メタデータ) (2021-06-07T06:42:00Z) - Local Differential Privacy for Regret Minimization in Reinforcement
Learning [33.679678503441565]
有限水平マルコフ決定過程(MDP)の文脈におけるプライバシーの研究
ローカルディファレンシャルプライバシ(LDP)フレームワークを活用することで、RLのプライバシの概念を定式化する。
本稿では,$varepsilon$-LDP要求を満たす楽観的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。