論文の概要: Learning with Locally Private Examples by Inverse Weierstrass Private Stochastic Gradient Descent
- arxiv url: http://arxiv.org/abs/2602.16436v1
- Date: Wed, 18 Feb 2026 13:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.596995
- Title: Learning with Locally Private Examples by Inverse Weierstrass Private Stochastic Gradient Descent
- Title(参考訳): Inverse Weierstrass Private Stochastic Gradient Descent による局所的私的事例の学習
- Authors: Jean Dufraiche, Paul Mangold, Michaël Perrot, Marc Tommasi,
- Abstract要約: このバイアスを二項分類で特徴づけるために、Weierstrass変換を用いる。
Inverse Weierstrass Private SGDと呼ばれる新しい勾配降下アルゴリズムを構築した。
IWP-SGDを合成および実世界のデータセットを用いて二項分類タスクで実証的に検証する。
- 参考スコア(独自算出の注目度): 9.706390554730126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Releasing data once and for all under noninteractive Local Differential Privacy (LDP) enables complete data reusability, but the resulting noise may create bias in subsequent analyses. In this work, we leverage the Weierstrass transform to characterize this bias in binary classification. We prove that inverting this transform leads to a bias-correction method to compute unbiased estimates of nonlinear functions on examples released under LDP. We then build a novel stochastic gradient descent algorithm called Inverse Weierstrass Private SGD (IWP-SGD). It converges to the true population risk minimizer at a rate of $\mathcal{O}(1/n)$, with $n$ the number of examples. We empirically validate IWP-SGD on binary classification tasks using synthetic and real-world datasets.
- Abstract(参考訳): 非インタラクティブなローカル微分プライバシ(LDP)の下でデータを一度、あるいはすべてリースすることで、完全なデータ再利用が可能になるが、結果として発生するノイズは、その後の分析においてバイアスを引き起こす可能性がある。
本研究では、Weierstrass変換を利用して、このバイアスを二項分類で特徴づける。
この変換を反転させることで, LDP 下での非線形関数の偏りのない推定値を計算するバイアス補正法が導かれることが証明された。
Inverse Weierstrass Private SGD (IWP-SGD) と呼ばれる新しい確率勾配降下アルゴリズムを構築した。
これは真集団リスク最小化器に$\mathcal{O}(1/n)$で収束し、例の数は$n$である。
IWP-SGDを合成および実世界のデータセットを用いて二項分類タスクで実証的に検証する。
関連論文リスト
- Information Hidden in Gradients of Regression with Target Noise [2.8911861322232686]
勾配だけでヘッセンが明らかになることを示す。
我々はガウス以下の入力の下で非漸近作用素ノルム保証を提供する。
論文 参考訳(メタデータ) (2026-01-26T14:50:16Z) - Unregularized Linear Convergence in Zero-Sum Game from Preference Feedback [50.89125374999765]
NLHFにおける最適乗算重み更新(mathtOMWU$)に対する最初の収束保証を提供する。
本分析では, 稀に発生する行動の確率が指数関数的に小さい値から指数関数的に増大する新たな限界収束挙動を同定する。
論文 参考訳(メタデータ) (2025-12-31T12:08:29Z) - Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Clipped SGD Algorithms for Performative Prediction: Tight Bounds for Clipping Bias and Remedies [28.699424769503764]
本稿では,決定依存型データ分布を用いたクリッピング勾配降下法(SGD)アルゴリズムの収束性について検討する。
我々は,SGDGDが安定解に達するのを防ぐクリッピング演算子によって生じるクリッピングバイアス(PCSGD)を特徴付ける。
また,本解析は,後者のアルゴリズムが性能設定におけるクリッピングバイアスを含まないことを示すために拡張された。
論文 参考訳(メタデータ) (2024-04-17T02:17:05Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Score-based Continuous-time Discrete Diffusion Models [102.65769839899315]
連続時間マルコフ連鎖を介して逆過程が認知されるマルコフジャンププロセスを導入することにより、拡散モデルを離散変数に拡張する。
条件境界分布の単純なマッチングにより、偏りのない推定器が得られることを示す。
提案手法の有効性を,合成および実世界の音楽と画像のベンチマークで示す。
論文 参考訳(メタデータ) (2022-11-30T05:33:29Z) - On the Double Descent of Random Features Models Trained with SGD [78.0918823643911]
勾配降下(SGD)により最適化された高次元におけるランダム特徴(RF)回帰特性について検討する。
本研究では, RF回帰の高精度な非漸近誤差境界を, 定常および適応的なステップサイズSGD設定の下で導出する。
理論的にも経験的にも二重降下現象を観察する。
論文 参考訳(メタデータ) (2021-10-13T17:47:39Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。