論文の概要: PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2404.03873v1
- Date: Fri, 5 Apr 2024 03:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:06:15.325928
- Title: PrivShape: Extracting Shapes in Time Series under User-Level Local Differential Privacy
- Title(参考訳): PrivShape: ユーザレベルのローカル差分プライバシーの下での時系列の形状の抽出
- Authors: Yulian Mao, Qingqing Ye, Haibo Hu, Qi Wang, Kai Huang,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、データプライバシを保護する最先端のアプローチとして登場した。
ユーザレベル LDP の下で,全ての要素を保護するためのトリエベース機構である PrivShape を提案する。
実世界のデータセットに関する広範な実験により、PrivShapeはオフラインでの利用に適応した場合、PatternLDPよりも優れていることが実証された。
- 参考スコア(独自算出の注目度): 14.408776376918484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series have numerous applications in finance, healthcare, IoT, and smart city. In many of these applications, time series typically contain personal data, so privacy infringement may occur if they are released directly to the public. Recently, local differential privacy (LDP) has emerged as the state-of-the-art approach to protecting data privacy. However, existing works on LDP-based collections cannot preserve the shape of time series. A recent work, PatternLDP, attempts to address this problem, but it can only protect a finite group of elements in a time series due to {\omega}-event level privacy guarantee. In this paper, we propose PrivShape, a trie-based mechanism under user-level LDP to protect all elements. PrivShape first transforms a time series to reduce its length, and then adopts trie-expansion and two-level refinement to improve utility. By extensive experiments on real-world datasets, we demonstrate that PrivShape outperforms PatternLDP when adapted for offline use, and can effectively extract frequent shapes.
- Abstract(参考訳): 時系列は金融、医療、IoT、スマートシティに多くの応用がある。
これらのアプリケーションの多くでは、時系列は一般的に個人データを含むため、公開時にプライバシー侵害が発生する可能性がある。
近年、データプライバシを保護する最先端のアプローチとして、ローカルディファレンシャルプライバシ(LDP)が登場している。
しかし, LDP に基づくコレクションに関する既存の研究は時系列の形状を保存できない。
最近の研究であるPatternLDPはこの問題に対処しようとするが、時間列内の有限個の要素しか保護できない。
本稿では,PivShapeを提案する。PivShapeは,すべての要素を保護するための,ユーザレベル LDP に基づくトリエベース機構である。
PrivShapeはまず時系列を変換してその長さを減らし、次に三重展開と二重改良を採用して実用性を向上させる。
実世界のデータセットに関する広範な実験により、PrivShapeはオフラインでの使用に適応するとPatternLDPよりも優れ、頻繁な形状を効果的に抽出できることが実証された。
関連論文リスト
- Differentially Private Synthetic Data via Foundation Model APIs 2: Text [57.64059482750924]
現実世界で生成された高品質なテキストデータはプライベートであり、プライバシー上の懸念から自由に共有したり、利用したりすることはできない。
テキストの複雑な設定に適用可能な拡張PEアルゴリズムであるAug-PEを提案する。
その結果, Aug-PE は SOTA DP の微調整ベースラインと競合する DP 合成テキストを生成することがわかった。
論文 参考訳(メタデータ) (2024-03-04T05:57:50Z) - Private Fine-tuning of Large Language Models with Zeroth-order
Optimization [54.24600476755372]
DP-ZO(DP-ZO)は、ゼロオーダー最適化を民営化し、トレーニングデータのプライバシを保存する、大規模言語モデルを微調整する新しい手法である。
DP-ZOは、SQuADから1000のトレーニングサンプルにOPT-66Bを微調整すると、プライバシが1,10-5)$-DPになるため、わずか1.86%のパフォーマンス低下を示す。
論文 参考訳(メタデータ) (2024-01-09T03:53:59Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - P-Bench: A Multi-level Privacy Evaluation Benchmark for Language Models [41.86590537265852]
言語モデル(LM)のプライバシー漏洩を経験的かつ直感的に定量化するベンチマークであるP-Benchを提案する。
DPパラメータで保護されたデータのプライバシを保護し、測定する代わりに、P-Benchは実際の使用中に無視された推論データのプライバシに光を当てる。
P-Benchは、実証的な評価結果として、予め定義されたプライバシー目標を持つLMに対する既存のプライバシ攻撃を実行する。
論文 参考訳(メタデータ) (2023-11-07T14:55:52Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Generalized Linear Bandits with Local Differential Privacy [4.922800530841394]
パーソナライズドメディカルやオンライン広告などの多くのアプリケーションは、効果的な学習のために個人固有の情報を活用する必要がある。
これは、局所微分プライバシー(LDP)というプライバシーの厳格な概念を文脈的盗賊に導入する動機となっている。
本稿では,一般線形バンドレットに対するLDPアルゴリズムを設計し,非プライバシ設定と同じ後悔点を実現する。
論文 参考訳(メタデータ) (2021-06-07T06:42:00Z) - Local Differential Privacy for Regret Minimization in Reinforcement
Learning [33.679678503441565]
有限水平マルコフ決定過程(MDP)の文脈におけるプライバシーの研究
ローカルディファレンシャルプライバシ(LDP)フレームワークを活用することで、RLのプライバシの概念を定式化する。
本稿では,$varepsilon$-LDP要求を満たす楽観的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-15T14:13:26Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Successive Refinement of Privacy [38.20887036580742]
本研究は、局所微分プライバシー(LDP)を実現するために、どの程度ランダム性が必要かを検討する。
モチベーションシナリオは、複数のアナリストに複数のレベルのプライバシを提供することである。
各ユーザのプライバシーを維持しながら、ランダムなキーを時間の経過とともに再利用できないことを示す。
論文 参考訳(メタデータ) (2020-05-24T04:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。