論文の概要: Prediction with Expert Advice under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2512.06971v1
- Date: Sun, 07 Dec 2025 19:31:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.611953
- Title: Prediction with Expert Advice under Local Differential Privacy
- Title(参考訳): 地域差分プライバシー下におけるエキスパートアドバイザの予測
- Authors: Ben Jacobsen, Kassem Fawaz,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)の制約下におけるエキスパートアドバイスによる予測の古典的問題について検討する。
まず,従来のアルゴリズムが自然に LDP を満たすことを示し,RW-AdaBatch と RW-Meta という2つの新しいアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 13.190572800095751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the classic problem of prediction with expert advice under the constraint of local differential privacy (LDP). In this context, we first show that a classical algorithm naturally satisfies LDP and then design two new algorithms that improve it: RW-AdaBatch and RW-Meta. For RW-AdaBatch, we exploit the limited-switching behavior induced by LDP to provide a novel form of privacy amplification that grows stronger on easier data, analogous to the shuffle model in offline learning. Drawing on the theory of random walks, we prove that this improvement carries essentially no utility cost. For RW-Meta, we develop a general method for privately selecting between experts that are themselves non-trivial learning algorithms, and we show that in the context of LDP this carries no extra privacy cost. In contrast, prior work has only considered data-independent experts. We also derive formal regret bounds that scale inversely with the degree of independence between experts. Our analysis is supplemented by evaluation on real-world data reported by hospitals during the COVID-19 pandemic; RW-Meta outperforms both the classical baseline and a state-of-the-art \textit{central} DP algorithm by 1.5-3$\times$ on the task of predicting which hospital will report the highest density of COVID patients each week.
- Abstract(参考訳): 本研究では,地域差分プライバシ(LDP)の制約の下で,専門家によるアドバイスによる予測の古典的問題について検討する。
この文脈では、古典的アルゴリズムが自然に LDP を満たすことを示し、次にそれを改善する2つの新しいアルゴリズム、RW-AdaBatch と RW-Meta を設計する。
RW-AdaBatchでは, オフライン学習におけるシャッフルモデルに類似した, より簡単なデータでより強力なプライバシー増幅を提供するために, LDPによって引き起こされる限定的なスイッチング動作を利用する。
ランダムウォークの理論に基づいて、この改良が本質的に実用コストを伴わないことを証明した。
RW-Metaでは,自称非自明な学習アルゴリズムである専門家同士をプライベートに選択するための汎用手法を開発し,LDPの文脈では,この手法が余分なプライバシコストを伴わないことを示す。
対照的に、以前の研究はデータに依存しない専門家しか考慮していなかった。
また、専門家間の独立の度合いと逆向きにスケールする形式的な後悔の境界も導き出します。
RW-Metaは古典的ベースラインと最先端の「textit{central} DP」のアルゴリズムを1.5~3$\times$で上回り、どの病院が毎週最も患者の密度を報告するかを予測する。
関連論文リスト
- Beyond Covariance Matrix: The Statistical Complexity of Private Linear Regression [66.93988594607842]
プライバシー制約の下では、プライベート線形回帰の複雑さは通常の共分散行列によって捉えられる。
最適率を達成するための情報重み付け回帰手法を提案する。
特に、我々の結果は、共同プライバシーは追加費用がほとんどないことを示している。
論文 参考訳(メタデータ) (2025-02-18T18:35:24Z) - Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - The Cost of Shuffling in Private Gradient Based Optimization [40.31928071333575]
その結果, DP-ShuffleGはDP-SGDと比較して, データのシャッフル処理により過大なリスクが生じることがわかった。
我々は、プライベートな最適化に公開データサンプルを統合するハイブリッドアプローチである textitInterleaved-ShuffleG を提案する。
論文 参考訳(メタデータ) (2025-02-05T22:30:00Z) - Locally Private Estimation with Public Features [2.9562742331218725]
本研究では,公共性を考慮した地域差分学習(LDP)について検討した。
半機能LDPでは,非パラメトリック回帰の最小収束速度が著しく低下することを示した。
本研究では,パブリック機能とプライベート機能の両方に含まれる情報を完全に活用する推定器を提案する。
論文 参考訳(メタデータ) (2024-05-22T09:47:54Z) - Clipped SGD Algorithms for Performative Prediction: Tight Bounds for Clipping Bias and Remedies [28.699424769503764]
本稿では,決定依存型データ分布を用いたクリッピング勾配降下法(SGD)アルゴリズムの収束性について検討する。
我々は,SGDGDが安定解に達するのを防ぐクリッピング演算子によって生じるクリッピングバイアス(PCSGD)を特徴付ける。
また,本解析は,後者のアルゴリズムが性能設定におけるクリッピングバイアスを含まないことを示すために拡張された。
論文 参考訳(メタデータ) (2024-04-17T02:17:05Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - Human-in-the-loop: Provably Efficient Preference-based Reinforcement
Learning with General Function Approximation [107.54516740713969]
本研究は,RL(Human-in-the-loop reinforcement learning)を軌道的嗜好で検討する。
各ステップで数値的な報酬を受ける代わりに、エージェントは人間の監督者から軌道上のペアよりも優先される。
一般関数近似を用いたPbRLの楽観的モデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T09:03:24Z) - What You See is What You Get: Distributional Generalization for
Algorithm Design in Deep Learning [12.215964287323876]
微分プライバシー(DP)と分布一般化(DG)の概念の関連性について検討・活用する。
我々は、標準勾配降下(SGD)の「病理」をバイパスするディープラーニング手法を設計するための新しい概念ツールを導入する。
論文 参考訳(メタデータ) (2022-04-07T05:41:40Z) - Generalized Linear Bandits with Local Differential Privacy [4.922800530841394]
パーソナライズドメディカルやオンライン広告などの多くのアプリケーションは、効果的な学習のために個人固有の情報を活用する必要がある。
これは、局所微分プライバシー(LDP)というプライバシーの厳格な概念を文脈的盗賊に導入する動機となっている。
本稿では,一般線形バンドレットに対するLDPアルゴリズムを設計し,非プライバシ設定と同じ後悔点を実現する。
論文 参考訳(メタデータ) (2021-06-07T06:42:00Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。