論文の概要: Differentially Private Domain Adaptation with Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2306.08838v2
- Date: Sun, 4 Feb 2024 22:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 06:04:08.945291
- Title: Differentially Private Domain Adaptation with Theoretical Guarantees
- Title(参考訳): 理論的保証を伴う微分的プライベートドメイン適応
- Authors: Raef Bassily, Corinna Cortes, Anqi Mao, Mehryar Mohri
- Abstract要約: 多くのアプリケーションでは、ラベル付きデータの処分におけるラベル付きデータはプライバシー上の制約を受けており、比較的制限されている。
これは、パブリックソースからプライベートターゲットドメインへのドメイン適応を監督する現代の問題である。
我々は、理論的な学習保証の恩恵を受けるために、一般の学習者を利用する。
- 参考スコア(独自算出の注目度): 46.37771025567305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications, the labeled data at the learner's disposal is subject
to privacy constraints and is relatively limited. To derive a more accurate
predictor for the target domain, it is often beneficial to leverage publicly
available labeled data from an alternative domain, somewhat close to the target
domain. This is the modern problem of supervised domain adaptation from a
public source to a private target domain. We present two $(\epsilon,
\delta)$-differentially private adaptation algorithms for supervised
adaptation, for which we make use of a general optimization problem, recently
shown to benefit from favorable theoretical learning guarantees. Our first
algorithm is designed for regression with linear predictors and shown to solve
a convex optimization problem. Our second algorithm is a more general solution
for loss functions that may be non-convex but Lipschitz and smooth. While our
main objective is a theoretical analysis, we also report the results of several
experiments first demonstrating that the non-private versions of our algorithms
outperform adaptation baselines and next showing that, for larger values of the
target sample size or $\epsilon$, the performance of our private algorithms
remains close to that of the non-private formulation.
- Abstract(参考訳): 多くのアプリケーションでは、学習者の自由にラベル付けされたデータはプライバシーの制約を受けており、比較的制限されている。
ターゲットドメインのより正確な予測器を導出するために、ターゲットドメインに近い別のドメインから利用可能なラベル付きデータを活用することがしばしば有益である。
これは、パブリックソースからプライベートターゲットドメインへのドメイン適応を監督する現代の問題である。
我々は,教師付き適応のための2つの$(\epsilon, \delta)$-differentially private adaptation algorithm を提案する。
最初のアルゴリズムは線形予測器を用いて回帰を設計し,凸最適化問題の解法を示した。
第二のアルゴリズムは、非凸であるがリプシッツと滑らかな損失関数に対するより一般的な解である。
我々の主な目的は理論分析であるが、まず、我々のアルゴリズムの非プライベートバージョンが適応ベースラインを上回り、次にターゲットサンプルサイズまたは$\epsilon$のより大きな値に対して、我々のプライベートアルゴリズムの性能が非プライベートな定式化のそれに近いことを示すいくつかの実験の結果を報告する。
関連論文リスト
- Generating Private Synthetic Data with Genetic Algorithms [29.756119782419955]
基礎となる機密データセットの統計特性を近似した微分プライベートな合成データを効率的に生成する問題について検討する。
ゼロ階最適化に基づく遺伝的アルゴリズムであるPrivate-GSDを提案する。
そこで,Private-GSDは,非微分クエリにおいて,微分可能なクエリを近似する精度で,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T21:19:37Z) - From Robustness to Privacy and Back [15.727276506140878]
統計的推論と機械学習における2つのデシラタの関係について検討する。
私たちの研究は、敵対的ロバストなアルゴリズムを純粋な差分プライバシーを満たすものに変換する最初のブラックボックス変換を提供します。
論文 参考訳(メタデータ) (2023-02-03T16:57:57Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Optimal Algorithms for Mean Estimation under Local Differential Privacy [55.32262879188817]
そこで本研究では,PrivUnitが局所的プライベートな乱数化器群間の最適分散を実現することを示す。
また,ガウス分布に基づくPrivUnitの新たな変種も開発しており,数学的解析に適しており,同じ最適性保証を享受できる。
論文 参考訳(メタデータ) (2022-05-05T06:43:46Z) - Output Perturbation for Differentially Private Convex Optimization with
Improved Population Loss Bounds, Runtimes and Applications to Private
Adversarial Training [12.386462516398469]
強力な過剰なリスク境界を提供する効率的で実装が容易な差分プライベート(DP)アルゴリズムを見つけることは、現代の機械学習において重要な問題である。
我々は、滑らかさと強い凸性の存在下で、最もよく知られた$(epsilon, 0)$-DP人口損失境界と最速ランタイムを提供する。
我々はこの理論を2つの学習フレームワーク、傾きERMと逆学習フレームワークに適用する。
論文 参考訳(メタデータ) (2021-02-09T08:47:06Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z) - Private Optimization Without Constraint Violations [14.920650598301476]
本稿では,制約の右辺がプライベートデータに依存する場合,線形制約を伴う差分プライベート最適化の問題について検討する。
これまでの研究では、プライバシーを維持しながら、時には制約に違反したソリューションが提供されていた。
確率 1 の制約を満たす近似解を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:08:52Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。