論文の概要: Optimal Differentially Private Ranking from Pairwise Comparisons
- arxiv url: http://arxiv.org/abs/2507.09388v1
- Date: Sat, 12 Jul 2025 20:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.067489
- Title: Optimal Differentially Private Ranking from Pairwise Comparisons
- Title(参考訳): ペアワイズ比較による最適個人格付け
- Authors: T. Tony Cai, Abhinav Chakraborty, Yichen Wang,
- Abstract要約: 我々は、エッジ差分プライバシーと個人差分プライバシーという2つのプライバシー概念の下でランキング手法を開発し、分析する。
本アルゴリズムは,各プライバシー制約の下で最小収束率を達成する。
- 参考スコア(独自算出の注目度): 4.524669884005837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data privacy is a central concern in many applications involving ranking from incomplete and noisy pairwise comparisons, such as recommendation systems, educational assessments, and opinion surveys on sensitive topics. In this work, we propose differentially private algorithms for ranking based on pairwise comparisons. Specifically, we develop and analyze ranking methods under two privacy notions: edge differential privacy, which protects the confidentiality of individual comparison outcomes, and individual differential privacy, which safeguards potentially many comparisons contributed by a single individual. Our algorithms--including a perturbed maximum likelihood estimator and a noisy count-based method--are shown to achieve minimax optimal rates of convergence under the respective privacy constraints. We further demonstrate the practical effectiveness of our methods through experiments on both simulated and real-world data.
- Abstract(参考訳): データプライバシは、リコメンデーションシステム、教育評価、センシティブなトピックに関する意見調査など、不完全でノイズの多いペアワイズ比較からランク付けする多くのアプリケーションにおいて、中心的な関心事である。
本研究では,ペアワイズ比較に基づくランク付けのための差分プライベートアルゴリズムを提案する。
具体的には、個々の比較結果の機密性を保護しているエッジ差分プライバシーと、個人が貢献する可能性のある多くの比較を保護している個人差分プライバシーという2つのプライバシー概念の下で、ランキング手法を開発し、分析する。
提案アルゴリズムは,各プライバシ制約の下で最小収束率を達成するために,摂動最大値推定器とノイズ数に基づく手法を含む。
さらに,シミュレーションデータと実世界のデータの両方を用いた実験により,本手法の有効性を実証する。
関連論文リスト
- Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Private Estimation when Data and Privacy Demands are Correlated [5.755004576310333]
微分プライバシーは、統計クエリーのプライバシーを確保するための現在のゴールドスタンダードである。
単変量データに対する経験的平均推定の問題とカテゴリーデータに対する周波数推定について考察する。
提案アルゴリズムは,PAC誤差と平均二乗誤差の両方で理論的性能を保証する。
論文 参考訳(メタデータ) (2024-07-15T22:46:02Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Improving the Variance of Differentially Private Randomized Experiments through Clustering [16.166525280886578]
差分的プライベートなメカニズムであるCluster-DPを提案する。
より高品質なクラスタを選択することで,プライバシー保証を損なうことなく,分散ペナルティを低減できることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Ranking Differential Privacy [17.826241775212786]
既存の作業は、主に、$epsilon$-differential privacyの下で、ランキングのセットまたはペア単位でのランキングの比較において、単一のランキング上のプライバシ保護を開発する。
本稿では,位階を保護するために,$epsilon$-level差分プライバシーという新しい概念を提案する。
開発した$epsilon$-level差分プライバシーを満足しながら、合成ランキングを生成する多段階ランキングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-02T19:12:42Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Non-parametric Differentially Private Confidence Intervals for the
Median [3.205141100055992]
本稿では,中央値に対する有意な個人的信頼区間を計算するためのいくつかの戦略を提案し,評価する。
また、サンプリングからのエラーと出力の保護からのエラーという2つの不確実性源に対処することが、この不確実性を逐次的に組み込んだ単純なアプローチよりも望ましいことを示す。
論文 参考訳(メタデータ) (2021-06-18T19:45:37Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。