論文の概要: Privacy-Preserving Fair Item Ranking
- arxiv url: http://arxiv.org/abs/2303.02916v1
- Date: Mon, 6 Mar 2023 06:21:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:00:36.402419
- Title: Privacy-Preserving Fair Item Ranking
- Title(参考訳): プライバシー保護フェアアイテムランキング
- Authors: Jia Ao Sun, Sikha Pentyala, Martine De Cock, Golnoosh Farnadi
- Abstract要約: この研究は、プロデューサ(イテム)公正性とコンシューマ(ユーザ)プライバシ(ランク付け)の連携で研究を進める最初のものである。
われわれの研究は、アモートされた注意ランキングの仕組みをプライバシー保護に拡張し、その効果をプライバシー、公正性、ランキング品質で評価する。
- 参考スコア(独自算出の注目度): 13.947606247944597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Users worldwide access massive amounts of curated data in the form of
rankings on a daily basis. The societal impact of this ease of access has been
studied and work has been done to propose and enforce various notions of
fairness in rankings. Current computational methods for fair item ranking rely
on disclosing user data to a centralized server, which gives rise to privacy
concerns for the users. This work is the first to advance research at the
conjunction of producer (item) fairness and consumer (user) privacy in rankings
by exploring the incorporation of privacy-preserving techniques; specifically,
differential privacy and secure multi-party computation. Our work extends the
equity of amortized attention ranking mechanism to be privacy-preserving, and
we evaluate its effects with respect to privacy, fairness, and ranking quality.
Our results using real-world datasets show that we are able to effectively
preserve the privacy of users and mitigate unfairness of items without making
additional sacrifices to the quality of rankings in comparison to the ranking
mechanism in the clear.
- Abstract(参考訳): 世界中のユーザーは、毎日ランキングの形で大量のキュレートされたデータにアクセスする。
このアクセスの容易さによる社会的な影響が研究され、ランキングにおける公平性の概念を提案・強制するために研究が進められている。
フェアアイテムランキングの現在の計算方法は、ユーザデータを集中型サーバに公開することに依存しており、ユーザにとってプライバシ上の懸念が生じている。
この研究は、プライバシ保存技術、特に差分プライバシとセキュアなマルチパーティ計算を組み込むことによって、プロデューサ(イテム)公正性とコンシューマ(ユーザ)プライバシをランキングで組み合わせて研究を進める最初のものである。
われわれの研究は、アモートされた注意ランキングの仕組みをプライバシー保護に拡張し、その効果をプライバシー、公正性、ランキング品質で評価する。
実世界のデータセットを用いた結果から,利用者のプライバシーを効果的に保ち,品目の不公平さを軽減できることがわかった。
関連論文リスト
- Privacy-Enhanced Database Synthesis for Benchmark Publishing [16.807486872855534]
差分プライバシーは、データ共有時のプライバシ保護の鍵となる方法となっているが、主に集約クエリや分類タスクにおけるエラーの最小化に焦点が当てられている。
本稿では,特にベンチマークのためのプライバシ保護データベースの作成について述べる。
PrivBenchは、データ分割とサンプリングにSPN(Sum-product Network)を使用して、プライバシを確保しながらデータ表現を強化する。
論文 参考訳(メタデータ) (2024-05-02T14:20:24Z) - Rate-Optimal Rank Aggregation with Private Pairwise Rankings [12.511220449652384]
我々は、ペアのランキングに基づいてランクアグリゲーションの実用性を確保しつつ、プライバシを保護するという課題に対処する。
そこで本研究では,ランダム化応答機構からランキングを適応的にデバイアスする手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T18:05:55Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Ranking Differential Privacy [17.826241775212786]
既存の作業は、主に、$epsilon$-differential privacyの下で、ランキングのセットまたはペア単位でのランキングの比較において、単一のランキング上のプライバシ保護を開発する。
本稿では,位階を保護するために,$epsilon$-level差分プライバシーという新しい概念を提案する。
開発した$epsilon$-level差分プライバシーを満足しながら、合成ランキングを生成する多段階ランキングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-02T19:12:42Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Privacy-Preserving Boosting in the Local Setting [17.375582978294105]
機械学習では、複数のベース学習者と優れた学習者を組み合わせるように設計された最も一般的な方法の1つがブースティングである。
ビッグデータ時代において、個人や団体によって保持されるデータ(個人画像、閲覧履歴、国勢調査情報など)は、より機密性の高い情報を含む傾向にある。
ローカル微分プライバシーは、データ所有者に強力な保証を提供する効果的なプライバシー保護アプローチとして提案されている。
論文 参考訳(メタデータ) (2020-02-06T04:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。