論文の概要: On User-Level Private Convex Optimization
- arxiv url: http://arxiv.org/abs/2305.04912v1
- Date: Mon, 8 May 2023 17:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 13:22:34.754040
- Title: On User-Level Private Convex Optimization
- Title(参考訳): ユーザレベルプライベート凸最適化について
- Authors: Badih Ghazi and Pritish Kamath and Ravi Kumar and Raghu Meka and Pasin
Manurangsi and Chiyuan Zhang
- Abstract要約: ユーザレベルの差分プライバシー保証を伴う凸最適化(SCO)のための新しいメカニズムを提案する。
我々のメカニズムは損失に対する滑らかさの仮定を必要としない。
私たちの限界は、ユーザレベルのプライバシーに必要な最小限のユーザが、その次元に依存しない、最初のものです。
- 参考スコア(独自算出の注目度): 59.75368670035683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new mechanism for stochastic convex optimization (SCO) with
user-level differential privacy guarantees. The convergence rates of this
mechanism are similar to those in the prior work of Levy et al. (2021);
Narayanan et al. (2022), but with two important improvements. Our mechanism
does not require any smoothness assumptions on the loss. Furthermore, our
bounds are also the first where the minimum number of users needed for
user-level privacy has no dependence on the dimension and only a logarithmic
dependence on the desired excess error. The main idea underlying the new
mechanism is to show that the optimizers of strongly convex losses have low
local deletion sensitivity, along with an output perturbation method for
functions with low local deletion sensitivity, which could be of independent
interest.
- Abstract(参考訳): ユーザレベルの差分プライバシー保証を備えた確率凸最適化(SCO)のための新しいメカニズムを提案する。
この機構の収束速度は Levy et al. (2021), Narayanan et al. (2022) の以前の研究と似ているが、2つの重要な改善がある。
我々のメカニズムは損失に対する滑らかさの仮定を必要としない。
さらに,ユーザレベルのプライバシに必要な最小ユーザ数が次元に依存しず,必要な過大エラーに対する対数依存性のみを持つ,最初のケースでもある。
新しいメカニズムの根底にある考え方は、強い凸損失のオプティマイザは局所的削除感度が低いことを示し、局所的削除感度が低い関数に対する出力摂動法は独立な関心を持つ可能性があることを示すことである。
関連論文リスト
- Robust support vector machines via conic optimization [0.8594140167290099]
本研究では,不確実性に頑健な凸計算機の問題点を考察する。
提案した推定器は, 降圧器の存在下では, 降圧器が無く, より良くなることにより, SVM と競合することを示す。
論文 参考訳(メタデータ) (2024-02-02T05:42:50Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Using Property Elicitation to Understand the Impacts of Fairness
Regularizers [0.32634122554914]
我々は、どの正規化器が損失の最小化器を変化させるか、また、最小化器が変化した場合、どのように変化するかを十分に理解していないことを示す。
データ分布の変化と制約の硬さの両方の関数として,アルゴリズムによる意思決定がどのように変化するかを実証的に示す。
論文 参考訳(メタデータ) (2023-09-20T14:20:56Z) - Differential Privacy via Distributionally Robust Optimization [8.409434654561789]
非漸近的かつ無条件の最適性を保証するメカニズムのクラスを開発する。
上界 (primal) は実装可能な摂動に対応しており、その準最適性は下界 (dual) で有界である。
数値実験により、我々の摂動は、人工的および標準ベンチマーク問題に関する文献から得られた最も優れた結果よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-04-25T09:31:47Z) - Trust your neighbours: Penalty-based constraints for model calibration [19.437451462590108]
SVLSの制約付き最適化の観点を示し、周辺画素のソフトクラス比に暗黙の制約を課すことを示した。
本稿では,ロジット値の等式制約に基づく基本的かつ単純な解を提案し,強制制約と罰則の重みを明示的に制御する。
論文 参考訳(メタデータ) (2023-03-11T01:10:26Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Brownian Noise Reduction: Maximizing Privacy Subject to Accuracy
Constraints [53.01656650117495]
研究者と実践者の間には、プライバシとユーティリティのトレードオフの扱い方の違いがある。
ブラウン機構は、まず擬ブラウン運動の最終点に対応する高分散のガウス雑音を加えることで機能する。
我々は、古典的AboveThresholdアルゴリズムの一般化であるReduceedAboveThresholdでブラウン機構を補完する。
論文 参考訳(メタデータ) (2022-06-15T01:43:37Z) - The Probabilistic Normal Epipolar Constraint for Frame-To-Frame Rotation
Optimization under Uncertain Feature Positions [53.478856119297284]
特徴位置における異方性および不均一性を考慮した確率論的正規極性制約(PNEC)を導入する。
合成データの実験において、新しいPNECは元のNECよりも正確な回転推定値が得られることを示した。
我々は,提案手法を最先端のモノクロ回転専用オドメトリーシステムに統合し,実世界のKITTIデータセットに対して一貫した改良を行った。
論文 参考訳(メタデータ) (2022-04-05T14:47:11Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Bilevel Optimization for Differentially Private Optimization in Energy
Systems [53.806512366696275]
本稿では,入力に敏感な制約付き最適化問題に対して,差分プライバシーを適用する方法について検討する。
本稿は, 自然仮定の下では, 大規模非線形最適化問題に対して, 双レベルモデルを効率的に解けることを示す。
論文 参考訳(メタデータ) (2020-01-26T20:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。