論文の概要: Federating Recommendations Using Differentially Private Prototypes
- arxiv url: http://arxiv.org/abs/2003.00602v1
- Date: Sun, 1 Mar 2020 22:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:54:27.364296
- Title: Federating Recommendations Using Differentially Private Prototypes
- Title(参考訳): 差分プライベートプロトタイプを用いたフェデレーションレコメンデーション
- Authors: M\'onica Ribero, Jette Henderson, Sinead Williamson, Haris Vikalo
- Abstract要約: 生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 16.29544153550663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning methods allow us to make recommendations to users in
applications across fields including entertainment, dating, and commerce, by
exploiting similarities in users' interaction patterns. However, in domains
that demand protection of personally sensitive data, such as medicine or
banking, how can we learn such a model without accessing the sensitive data,
and without inadvertently leaking private information? We propose a new
federated approach to learning global and local private models for
recommendation without collecting raw data, user statistics, or information
about personal preferences. Our method produces a set of prototypes that allows
us to infer global behavioral patterns, while providing differential privacy
guarantees for users in any database of the system. By requiring only two
rounds of communication, we both reduce the communication costs and avoid the
excessive privacy loss associated with iterative procedures. We test our
framework on synthetic data as well as real federated medical data and
Movielens ratings data. We show local adaptation of the global model allows our
method to outperform centralized matrix-factorization-based recommender system
models, both in terms of accuracy of matrix reconstruction and in terms of
relevance of the recommendations, while maintaining provable privacy
guarantees. We also show that our method is more robust and is characterized by
smaller variance than individual models learned by independent entities.
- Abstract(参考訳): 機械学習は,ユーザのインタラクションパターンの類似性を活用し,エンタテインメントやデート,コマースなどさまざまな分野のアプリケーションにおいて,ユーザへのレコメンデーションを可能にする。
しかし、医療や銀行などの個人機密データの保護を要求するドメインでは、機密データにアクセスせずに、不注意に個人情報を漏らさずに、どのようにそのようなモデルを学べるのか?
本稿では,生データやユーザの統計情報,個人の好みに関する情報を収集することなく,グローバルおよびローカルプライベートモデルのレコメンデーションを学習するための新しい連合アプローチを提案する。
提案手法は,システム内の任意のデータベースのユーザに対して差分プライバシー保証を提供しながら,グローバルな行動パターンを推測する一連のプロトタイプを生成する。
2ラウンドの通信しか必要とせず、通信コストを削減し、反復的な手続きに伴う過剰なプライバシー損失を回避する。
私たちは、合成データと実際の連合医療データと映画評価データに関するフレームワークをテストします。
本稿では,グローバルモデルの局所的適応により,行列再構成の精度とレコメンデーションの妥当性の両面において,集中行列分解に基づくレコメンデーションシステムモデルより優れ,かつ,証明可能なプライバシ保証を維持した。
また,本手法はより頑健であり,独立した実体によって学習された個々のモデルよりも分散が小さい。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Little is Enough: Improving Privacy by Sharing Labels in Federated Semi-Supervised Learning [10.972006295280636]
多くの重要なアプリケーションでは、機密データは本質的に分散しており、プライバシー上の懸念のために集中できない。
これらのアプローチのほとんどは、ローカルモデルパラメータ、パブリックデータセット上のソフト予測、あるいは両方の組み合わせを共有している。
しかし、これは依然としてプライベート情報を開示し、勾配ベースの手法でトレーニングを行う人たちにローカルモデルを制限している。
我々は、公開されていないデータセットでハードラベルのみを共有し、共有ラベルに関するコンセンサスを、クライアントが使用する擬似ラベルとして使用することを提案する。
論文 参考訳(メタデータ) (2023-10-09T13:16:10Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。