論文の概要: Randomized algorithms for precise measurement of differentially-private,
personalized recommendations
- arxiv url: http://arxiv.org/abs/2308.03735v1
- Date: Mon, 7 Aug 2023 17:34:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 12:33:49.405774
- Title: Randomized algorithms for precise measurement of differentially-private,
personalized recommendations
- Title(参考訳): 偏微分プライベート・パーソナライズドレコメンデーションの高精度測定のためのランダム化アルゴリズム
- Authors: Allegra Laro, Yanqing Chen, Hao He, Babak Aghazadeh
- Abstract要約: 本稿では,高精度かつ偏りのある測定を容易にするパーソナライズされたレコメンデーションのためのアルゴリズムを提案する。
提案するプライバシ保護アルゴリズムが,ユーザエクスペリエンスや広告主の価値,プラットフォーム収益に関連する重要な指標に与える影響を定量化するために,オフライン実験を実施している。
- 参考スコア(独自算出の注目度): 4.787161546860553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized recommendations form an important part of today's internet
ecosystem, helping artists and creators to reach interested users, and helping
users to discover new and engaging content. However, many users today are
skeptical of platforms that personalize recommendations, in part due to
historically careless treatment of personal data and data privacy. Now,
businesses that rely on personalized recommendations are entering a new
paradigm, where many of their systems must be overhauled to be privacy-first.
In this article, we propose an algorithm for personalized recommendations that
facilitates both precise and differentially-private measurement. We consider
advertising as an example application, and conduct offline experiments to
quantify how the proposed privacy-preserving algorithm affects key metrics
related to user experience, advertiser value, and platform revenue compared to
the extremes of both (private) non-personalized and non-private, personalized
implementations.
- Abstract(参考訳): パーソナライズドレコメンデーションは、今日のインターネットエコシステムの重要な部分を形成し、アーティストやクリエーターが興味のあるユーザーにリーチすることを支援し、ユーザーが新しく魅力的なコンテンツを見つけるのを助ける。
しかし、今日の多くのユーザーは、歴史的に不注意な個人データの扱いとデータのプライバシーのために、推奨をパーソナライズするプラットフォームに懐疑的です。
現在、パーソナライズドレコメンデーションに依存している企業は、プライバシ優先のシステムの多くをオーバーホールしなければならない、新たなパラダイムに移行している。
本稿では,個人毎の個人別測定を容易にするためのアルゴリズムを提案する。
広告をサンプルアプリケーションとして検討し,提案したプライバシー保護アルゴリズムがユーザエクスペリエンス,広告主価値,プラットフォーム収益に関連する重要な指標にどのように影響するかを,非個人的かつ非個人的かつパーソナライズされた実装の極端な部分と比較して定量化する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Leveraging Privacy Profiles to Empower Users in the Digital Society [7.350403786094707]
市民のプライバシーと倫理は、ますますデジタル化されつつある社会によってもたらされる懸念の中核にある。
我々は、フィットネス領域から収集された既存のデータセットに関する実証的研究を通じて、プライバシの次元に注目し、上記の方向のステップに貢献する。
その結果、セマンティック駆動型質問のコンパクトなセットは、複雑なドメイン依存質問よりもユーザを識別するのに役立つことがわかった。
論文 参考訳(メタデータ) (2022-04-01T15:31:50Z) - Personalization, Privacy, and Me [0.0]
人々は自分のデータがパーソナライズの名前で過剰に収集されていることを心配しています。
パーソナライズとプライバシに関する人々の経験を調査する。
論文 参考訳(メタデータ) (2021-09-14T22:09:44Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。