論文の概要: PrivNet: Safeguarding Private Attributes in Transfer Learning for
Recommendation
- arxiv url: http://arxiv.org/abs/2010.08187v1
- Date: Fri, 16 Oct 2020 06:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 19:53:46.592381
- Title: PrivNet: Safeguarding Private Attributes in Transfer Learning for
Recommendation
- Title(参考訳): PrivNet: 推薦のための移行学習における個人属性の保護
- Authors: Guangneng Hu, Qiang Yang
- Abstract要約: 転送学習は、ソースドメインからの知識でターゲットレコメンデータシステムを改善する効果的な手法である。
本稿では、プライバシを意識したニューラル表現を学習し、ソースプライバシを保護しながら、ターゲット性能を改善することにより、プライバシ保護の問題に対処する。
実験により、提案されたPrivNetモデルは、プライバシの漏洩による転送の恩恵を受ける知識をうまく切り離すことが示されている。
- 参考スコア(独自算出の注目度): 14.504986244471091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is an effective technique to improve a target recommender
system with the knowledge from a source domain. Existing research focuses on
the recommendation performance of the target domain while ignores the privacy
leakage of the source domain. The transferred knowledge, however, may
unintendedly leak private information of the source domain. For example, an
attacker can accurately infer user demographics from their historical purchase
provided by a source domain data owner. This paper addresses the above
privacy-preserving issue by learning a privacy-aware neural representation by
improving target performance while protecting source privacy. The key idea is
to simulate the attacks during the training for protecting unseen users'
privacy in the future, modeled by an adversarial game, so that the transfer
learning model becomes robust to attacks. Experiments show that the proposed
PrivNet model can successfully disentangle the knowledge benefitting the
transfer from leaking the privacy.
- Abstract(参考訳): トランスファー学習は、ソースドメインの知識を用いてターゲットレコメンダシステムを改善する効果的な手法である。
既存の研究は、ソースドメインのプライバシー漏洩を無視しながら、ターゲットドメインのレコメンデーションパフォーマンスに焦点を当てている。
しかし、転送された知識は、意図せずソースドメインの個人情報をリークする可能性がある。
例えば、アタッカーは、ソースドメインデータ所有者が提供した履歴購入からユーザの人口統計を正確に推測することができる。
本稿では,プライバシを意識したニューラル表現を学習し,ソースのプライバシを保護しながら目標性能を改善することにより,上記のプライバシ保護問題に対処する。
鍵となるアイデアは、敵のゲームによってモデル化された、将来の見えないユーザのプライバシを保護するトレーニング中の攻撃をシミュレートすることで、トランスファー学習モデルが攻撃に対して堅牢になるようにすることだ。
実験により、提案するprivnetモデルは、プライバシーの漏えいから、転送の恩恵を受ける知識をうまく切り離すことが示されている。
関連論文リスト
- PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Momentum Gradient Descent Federated Learning with Local Differential
Privacy [10.60240656423935]
ビッグデータの時代、個人情報のプライバシーはより顕著になった。
本稿では,機械学習モデルの性能向上のために,フェデレーション学習と局所差分プライバシーをモーメント勾配勾配下で統合することを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:30:38Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。