論文の概要: Private Domain Adaptation from a Public Source
- arxiv url: http://arxiv.org/abs/2208.06135v1
- Date: Fri, 12 Aug 2022 06:52:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:12:38.654130
- Title: Private Domain Adaptation from a Public Source
- Title(参考訳): パブリックソースからのプライベートドメイン適応
- Authors: Raef Bassily, Mehryar Mohri, Ananda Theertha Suresh
- Abstract要約: 我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
- 参考スコア(独自算出の注目度): 48.83724068578305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key problem in a variety of applications is that of domain adaptation from
a public source domain, for which a relatively large amount of labeled data
with no privacy constraints is at one's disposal, to a private target domain,
for which a private sample is available with very few or no labeled data. In
regression problems with no privacy constraints on the source or target data, a
discrepancy minimization algorithm based on several theoretical guarantees was
shown to outperform a number of other adaptation algorithm baselines. Building
on that approach, we design differentially private discrepancy-based algorithms
for adaptation from a source domain with public labeled data to a target domain
with unlabeled private data. The design and analysis of our private algorithms
critically hinge upon several key properties we prove for a smooth
approximation of the weighted discrepancy, such as its smoothness with respect
to the $\ell_1$-norm and the sensitivity of its gradient. Our solutions are
based on private variants of Frank-Wolfe and Mirror-Descent algorithms. We show
that our adaptation algorithms benefit from strong generalization and privacy
guarantees and report the results of experiments demonstrating their
effectiveness.
- Abstract(参考訳): 様々なアプリケーションにおいて重要な問題は、プライバシ制約のない比較的大量のラベル付きデータが廃棄される、パブリックドメインからプライベートターゲットドメインへのドメイン適応であり、プライベートサンプルは、非常に少数またはほとんどラベル付きデータを利用できない。
ソースやターゲットデータにプライバシー制約がない回帰問題において、いくつかの理論的保証に基づく誤差最小化アルゴリズムは、他の多くの適応アルゴリズムのベースラインよりも優れていることを示した。
この手法に基づいて、公開ラベル付きデータを持つソースドメインから、未ラベルのプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々のプライベートアルゴリズムの設計と解析は、いくつかの重要な性質に重み付けされた不一致の滑らかな近似(例えば$\ell_1$-norm に対する滑らかさや勾配の感度)を重要視している。
我々のソリューションは、frank-wolfeとmirror-descentアルゴリズムのプライベート変種に基づいている。
適応アルゴリズムは,強い一般化とプライバシー保証の恩恵を受け,その効果を示す実験結果を報告する。
関連論文リスト
- Differentially Private Policy Gradient [48.748194765816955]
本研究では,プライバシノイズと信頼領域サイズとの間の適切なトレードオフを見出すことができ,性能的にプライベートなポリシー勾配アルゴリズムが得られることを示す。
この結果と課題の複雑さは,オンラインRLにおける既存のDPアルゴリズムよりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-01-31T12:11:13Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Differentially Private Domain Adaptation with Theoretical Guarantees [46.37771025567305]
多くのアプリケーションでは、ラベル付きデータの処分におけるラベル付きデータはプライバシー上の制約を受けており、比較的制限されている。
これは、パブリックソースからプライベートターゲットドメインへのドメイン適応を監督する現代の問題である。
我々は、理論的な学習保証の恩恵を受けるために、一般の学習者を利用する。
論文 参考訳(メタデータ) (2023-06-15T04:03:06Z) - Generating Private Synthetic Data with Genetic Algorithms [29.756119782419955]
基礎となる機密データセットの統計特性を近似した微分プライベートな合成データを効率的に生成する問題について検討する。
ゼロ階最適化に基づく遺伝的アルゴリズムであるPrivate-GSDを提案する。
そこで,Private-GSDは,非微分クエリにおいて,微分可能なクエリを近似する精度で,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T21:19:37Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Robust and Differentially Private Mean Estimation [40.323756738056616]
異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
論文 参考訳(メタデータ) (2021-02-18T05:02:49Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。