論文の概要: Separating Oblivious and Adaptive Differential Privacy under Continual Observation
- arxiv url: http://arxiv.org/abs/2603.11029v1
- Date: Wed, 11 Mar 2026 17:51:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.090833
- Title: Separating Oblivious and Adaptive Differential Privacy under Continual Observation
- Title(参考訳): 連続観察による顕在的・適応的微分プライバシーの分離
- Authors: Mark Bun, Marco Gaboardi, Connor Wagaman,
- Abstract要約: 本研究では,不明瞭な環境と適応的な環境下での連続観察下での差分プライバシーの分離の問題を示す。
我々は、入力の次元において指数関数的に多くの時間ステップに対して精度が保たれる不明瞭な設定に対して、$(varepsilon,0)$-DPアルゴリズムを提案する。
一方、各$(varepsilon,)$-DP適応アルゴリズムは、一定回数の時間ステップで出力を出力した後で正確でないことを示す。
- 参考スコア(独自算出の注目度): 9.091518071158086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We resolve an open question of Jain, Raskhodnikova, Sivakumar, and Smith (ICML 2023) by exhibiting a problem separating differential privacy under continual observation in the oblivious and adaptive settings. The continual observation (a.k.a. continual release) model formalizes privacy for streaming algorithms, where data is received over time and output is released at each time step. In the oblivious setting, privacy need only hold for data streams fixed in advance; in the adaptive setting, privacy is required even for streams that can be chosen adaptively based on the streaming algorithm's output. We describe the first explicit separation between the oblivious and adaptive settings. The problem showing this separation is based on the correlated vector queries problem of Bun, Steinke, and Ullman (SODA 2017). Specifically, we present an $(\varepsilon,0)$-DP algorithm for the oblivious setting that remains accurate for exponentially many time steps in the dimension of the input. On the other hand, we show that every $(\varepsilon,δ)$-DP adaptive algorithm fails to be accurate after releasing output for only a constant number of time steps.
- Abstract(参考訳): 本稿では,ジャイナ教,ラスホドニコヴァ,シヴァクマル,スミス(ICML 2023)の公然と疑問を解決し,不明瞭かつ適応的な環境下での連続的な観察下での差分プライバシーの分離の問題を示す。
連続的な観測(すなわち連続的なリリース)モデルは、ストリーミングアルゴリズムのプライバシを形式化し、時間とともにデータが受信され、各タイムステップで出力が解放される。
適応的な設定では、ストリーミングアルゴリズムの出力に基づいて適応的に選択できるストリームに対しても、プライバシが要求される。
本研究は,難易度設定と適応度設定の最初の明確な分離について述べる。
この分離を示す問題は、Bun, Steinke, Ullman (SODA 2017) の相関ベクトルクエリ問題に基づいている。
具体的には、入力の次元において指数関数的に多くの時間ステップに対して精度が保たれる不明瞭な設定に対して、$(\varepsilon,0)$-DPアルゴリズムを提案する。
一方、各$(\varepsilon,δ)$-DP適応アルゴリズムは、一定回数の時間ステップで出力を出力した後で正確でないことを示す。
関連論文リスト
- Efficient privacy loss accounting for subsampling and random allocation [13.186391867041394]
本研究では,ユーザのデータをランダムなステップで使用するサンプリング方式のプライバシアンプリフィケーション特性について考察する。
ランダムなアロケーションのためのプライバシユーティリティのトレードオフは、少なくともPoissonサブサンプリングのそれと同程度であることを示す。
論文 参考訳(メタデータ) (2026-02-19T11:44:25Z) - Keeping a Secret Requires a Good Memory: Space Lower-Bounds for Private Algorithms [67.94856074923571]
本稿では,マルチプレイヤー通信ゲームに基づく新しい証明手法を提案する。
本稿では,このコミュニケーションゲームに勝つためには,過剰なユーザ数に比例した情報伝達が必要であることを示す。
このコミュニケーション理論の手法は幅広い問題のクラスに一般化し、プライベートな中央値、量子化値、最大選択値の下位境界を導出することを示す。
論文 参考訳(メタデータ) (2026-02-12T17:49:07Z) - Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Differentially Private Online Bayesian Estimation With Adaptive
Truncation [1.14219428942199]
そこで本研究では,集団に関する静的パラメータの偏微分プライベートなベイズオンライン推定のための,新しいオンライン・適応的トランケーション手法を提案する。
予測クエリを小さな感度で設計することを目的としており、それによってプライバシー保護ノイズが小さくなり、同じレベルのプライバシーを維持しながらより正確な推定が可能となる。
論文 参考訳(メタデータ) (2023-01-19T17:53:53Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Continual and Sliding Window Release for Private Empirical Risk
Minimization [7.054093620465401]
本稿では、最近のデータウインドウのモデルを継続的にリリースする、正規化された経験的リスク最小化アルゴリズムについて述べる。
無限の時間的地平線上でモデルをリリースしても、任意のデータポイントのプライバシコストは、一定の$epsilon$差分プライバシーによって制限される。
論文 参考訳(メタデータ) (2022-03-07T18:44:16Z) - Improved Regret for Differentially Private Exploration in Linear MDP [31.567811502343552]
医療記録などのセンシティブなデータに依存する環境におけるシーケンシャルな意思決定におけるプライバシ保護探索について検討する。
我々は、エピソード数に対して$O(sqrtK)$を最適に依存した、改善された後悔率を持つプライベートアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-02T21:32:09Z) - Numerical Composition of Differential Privacy [22.523399777002926]
我々は、任意の精度で微分プライベート(DP)アルゴリズムのプライバシー保証を最適に構成する高速アルゴリズムを提供する。
本手法は、DPアルゴリズムのプライバシー損失を定量化するために、プライバシー損失ランダム変数の概念に基づいている。
論文 参考訳(メタデータ) (2021-06-05T09:20:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。