論文の概要: Private Learning with Public Features
- arxiv url: http://arxiv.org/abs/2310.15454v1
- Date: Tue, 24 Oct 2023 01:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 20:49:25.749851
- Title: Private Learning with Public Features
- Title(参考訳): パブリック機能によるプライベートラーニング
- Authors: Walid Krichene, Nicolas Mayoraz, Steffen Rendle, Shuang Song,
Abhradeep Thakurta, Li Zhang
- Abstract要約: 個人と公共の機能の結合であるプライベートラーニングの問題のクラスについて検討する。
我々は,この分離を利用した新しいアルゴリズムを開発し,十分な統計情報のみを保護した。
- 参考スコア(独自算出の注目度): 18.142859808011618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of private learning problems in which the data is a join of
private and public features. This is often the case in private personalization
tasks such as recommendation or ad prediction, in which features related to
individuals are sensitive, while features related to items (the movies or songs
to be recommended, or the ads to be shown to users) are publicly available and
do not require protection. A natural question is whether private algorithms can
achieve higher utility in the presence of public features. We give a positive
answer for multi-encoder models where one of the encoders operates on public
features. We develop new algorithms that take advantage of this separation by
only protecting certain sufficient statistics (instead of adding noise to the
gradient). This method has a guaranteed utility improvement for linear
regression, and importantly, achieves the state of the art on two standard
private recommendation benchmarks, demonstrating the importance of methods that
adapt to the private-public feature separation.
- Abstract(参考訳): 本研究では,データがプライベート機能とパブリック機能の結合であるプライベート学習問題のクラスについて検討する。
これは、リコメンデーションや広告予測のような個人的なパーソナライズタスクにおいて、個人に関連する特徴が敏感である一方で、アイテム(推奨する映画や曲、またはユーザーに見せる広告)に関連する特徴が公開されており、保護を必要としない場合が多い。
自然の疑問は、プライベートアルゴリズムがパブリック機能の存在下で高いユーティリティを達成できるかどうかである。
公開機能で動作するマルチエンコーダモデルに対して,肯定的な回答を与える。
我々は,この分離を有効に活用するアルゴリズムを,(勾配にノイズを加える代わりに)十分な統計量だけを保護して開発する。
本手法は, 線形回帰に対する実用性の向上を保証し, 2つの標準プライベートレコメンデーションベンチマークにおいて, プライベートな特徴分離に適応する手法の重要性を実証する。
関連論文リスト
- Oracle-Efficient Differentially Private Learning with Public Data [21.771932463130252]
本稿では,関数クラスが非プライベートに学習可能な場合に,公開データを利用してプライベートに学習するアルゴリズムを初めて提案する。
本稿では,関数クラスが凸である場合や,タスクが二項分類である場合の特別な場合において,サンプルの複雑さを改善した特殊アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-13T23:40:50Z) - Private Matrix Factorization with Public Item Features [14.547931725603888]
差別化プライバシ(DP)によるトレーニングは、推奨品質の損失を犠牲にして、強力なプライバシ保証を提供する。
トレーニング中にパブリックアイテム機能を導入することで、品質の低下を軽減できることが示されています。
論文 参考訳(メタデータ) (2023-09-17T11:13:52Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Randomized algorithms for precise measurement of differentially-private,
personalized recommendations [6.793345945003182]
本稿では,高精度かつ偏りのある測定を容易にするパーソナライズされたレコメンデーションのためのアルゴリズムを提案する。
提案するプライバシ保護アルゴリズムが,ユーザエクスペリエンスや広告主の価値,プラットフォーム収益に関連する重要な指標に与える影響を定量化するために,オフライン実験を実施している。
論文 参考訳(メタデータ) (2023-08-07T17:34:58Z) - Better Private Linear Regression Through Better Private Feature
Selection [18.884088349732973]
我々は、Kendallランク相関に基づく微分プライベートな特徴選択手法を提案する。
機能は通常分散されている設定で有効性を保証する。
回帰の前にこのプライベートな特徴選択ステップを追加することで、プラグアンドプレイのプライベートな線形回帰アルゴリズムの適用性が大幅に拡大することがわかった。
論文 参考訳(メタデータ) (2023-06-01T17:21:10Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。