論文の概要: Federating Recommendations Using Differentially Private Prototypes
- arxiv url: http://arxiv.org/abs/2003.00602v1
- Date: Sun, 1 Mar 2020 22:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:54:27.364296
- Title: Federating Recommendations Using Differentially Private Prototypes
- Title(参考訳): 差分プライベートプロトタイプを用いたフェデレーションレコメンデーション
- Authors: M\'onica Ribero, Jette Henderson, Sinead Williamson, Haris Vikalo
- Abstract要約: 生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 16.29544153550663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning methods allow us to make recommendations to users in
applications across fields including entertainment, dating, and commerce, by
exploiting similarities in users' interaction patterns. However, in domains
that demand protection of personally sensitive data, such as medicine or
banking, how can we learn such a model without accessing the sensitive data,
and without inadvertently leaking private information? We propose a new
federated approach to learning global and local private models for
recommendation without collecting raw data, user statistics, or information
about personal preferences. Our method produces a set of prototypes that allows
us to infer global behavioral patterns, while providing differential privacy
guarantees for users in any database of the system. By requiring only two
rounds of communication, we both reduce the communication costs and avoid the
excessive privacy loss associated with iterative procedures. We test our
framework on synthetic data as well as real federated medical data and
Movielens ratings data. We show local adaptation of the global model allows our
method to outperform centralized matrix-factorization-based recommender system
models, both in terms of accuracy of matrix reconstruction and in terms of
relevance of the recommendations, while maintaining provable privacy
guarantees. We also show that our method is more robust and is characterized by
smaller variance than individual models learned by independent entities.
- Abstract(参考訳): 機械学習は,ユーザのインタラクションパターンの類似性を活用し,エンタテインメントやデート,コマースなどさまざまな分野のアプリケーションにおいて,ユーザへのレコメンデーションを可能にする。
しかし、医療や銀行などの個人機密データの保護を要求するドメインでは、機密データにアクセスせずに、不注意に個人情報を漏らさずに、どのようにそのようなモデルを学べるのか?
本稿では,生データやユーザの統計情報,個人の好みに関する情報を収集することなく,グローバルおよびローカルプライベートモデルのレコメンデーションを学習するための新しい連合アプローチを提案する。
提案手法は,システム内の任意のデータベースのユーザに対して差分プライバシー保証を提供しながら,グローバルな行動パターンを推測する一連のプロトタイプを生成する。
2ラウンドの通信しか必要とせず、通信コストを削減し、反復的な手続きに伴う過剰なプライバシー損失を回避する。
私たちは、合成データと実際の連合医療データと映画評価データに関するフレームワークをテストします。
本稿では,グローバルモデルの局所的適応により,行列再構成の精度とレコメンデーションの妥当性の両面において,集中行列分解に基づくレコメンデーションシステムモデルより優れ,かつ,証明可能なプライバシ保証を維持した。
また,本手法はより頑健であり,独立した実体によって学習された個々のモデルよりも分散が小さい。
関連論文リスト
- Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Federated Privacy-preserving Collaborative Filtering for On-Device Next
App Prediction [52.16923290335873]
本稿では,モバイルデバイス使用時の次のアプリの起動を予測するための新しいSeqMFモデルを提案する。
古典行列分解モデルの構造を修正し、学習手順を逐次学習に更新する。
提案手法のもうひとつの要素は,ユーザからリモートサーバへの送信データの保護を保証する,新たなプライバシメカニズムである。
論文 参考訳(メタデータ) (2023-02-05T10:29:57Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。