論文の概要: Differentially Private Rankings via Outranking Methods and Performance Data Aggregation
- arxiv url: http://arxiv.org/abs/2511.09120v1
- Date: Thu, 13 Nov 2025 01:33:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.418567
- Title: Differentially Private Rankings via Outranking Methods and Performance Data Aggregation
- Title(参考訳): 上位手法による個人別ランキングとパフォーマンスデータ集約
- Authors: Luis Del Vasto-Terrientes,
- Abstract要約: 本稿では,MCDMの上位手法と差分プライバシー(DP)を組み合わせた統合アプローチを提案する。
評価結果から,真のランキングと匿名化ランキングとの間には,強い統計的相関関係が認められた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiple-Criteria Decision Making (MCDM) is a sub-discipline of Operations Research that helps decision-makers in choosing, ranking, or sorting alternatives based on conflicting criteria. Over time, its application has been expanded into dynamic and data-driven domains, such as recommender systems. In these contexts, the availability and handling of personal and sensitive data can play a critical role in the decision-making process. Despite this increased reliance on sensitive data, the integration of privacy mechanisms with MCDM methods is underdeveloped. This paper introduces an integrated approach that combines MCDM outranking methods with Differential Privacy (DP), safeguarding individual contributions' privacy in ranking problems. This approach relies on a pre-processing step to aggregate multiple user evaluations into a comprehensive performance matrix. The evaluation results show a strong to very strong statistical correlation between the true rankings and their anonymized counterparts, ensuring robust privacy parameter guarantees.
- Abstract(参考訳): MCDM(Multi-Criteria Decision Making)は、意思決定者が競合する基準に基づいて選択肢を選択し、ランク付けし、ソートするのを支援する、オペレーションリサーチのサブディシプリネである。
時間が経つにつれて、そのアプリケーションはリコメンダシステムなど、動的でデータ駆動のドメインに拡張されている。
このような状況下では、個人的および機密性の高いデータの可用性と処理が意思決定プロセスにおいて重要な役割を果たす可能性がある。
機密データへの依存度が高まったにもかかわらず、プライバシー機構とMCDMメソッドの統合は未開発である。
本稿では,MCDMの上位手法と差分プライバシ(DP)を組み合わせ,個々のコントリビューションのプライバシをランキング問題で保護する統合アプローチを提案する。
このアプローチは、複数のユーザ評価を包括的なパフォーマンスマトリックスに集約する前処理ステップに依存します。
評価結果は、真のランキングと匿名化されたランキングとの間に強い統計的相関を示し、堅牢なプライバシパラメータの保証を保証する。
関連論文リスト
- Challenges in Enabling Private Data Valuation [17.450381366291754]
データアセスメント手法は、個々のトレーニング例がモデルの振る舞いにどのように貢献するかを定量化する。
評価スコアは、個人のデータがトレーニングに含まれていたか、異常な影響があったか、あるいはプロプライエタリなデータセットにどのような機密パターンが存在するかを明らかにすることができる。
プライバシーは基本的に、差分プライバシー(DP)の下でのバリュエーションユーティリティーと緊張関係にある
論文 参考訳(メタデータ) (2026-02-27T22:21:14Z) - RecPS: Privacy Risk Scoring for Recommender Systems [14.700807572189412]
インタラクションとユーザレベルでのプライバシリスクを測定するために,MIAベースのプライバシスコア手法であるRecPSを提案する。
重要なコンポーネントは相互作用レベルMIAメソッドRecLiRAであり、高品質なメンバシップ推定を提供する。
論文 参考訳(メタデータ) (2025-07-24T12:46:30Z) - A Principled Approach to Randomized Selection under Uncertainty: Applications to Peer Review and Grant Funding [61.86327960322782]
本稿では,各項目の品質の間隔推定に基づくランダム化意思決定の枠組みを提案する。
最適化に基づく最適化手法であるMERITを導入する。
MERITが既存のアプローチで保証されていない望ましい公理特性を満たすことを証明している。
論文 参考訳(メタデータ) (2025-06-23T19:59:30Z) - Membership Inference Attacks as Privacy Tools: Reliability, Disparity and Ensemble [12.451650669707167]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのプライバシに重大な脅威をもたらす。
MIA以前の研究は、主にAUC、精度、TPR@low FPRなどのパフォーマンス指標に焦点を当てていた。
これらの格差は、プライバシー評価ツールとしてのMIAの信頼性と完全性に重要な意味を持つ。
論文 参考訳(メタデータ) (2025-06-16T20:22:07Z) - From Randomized Response to Randomized Index: Answering Subset Counting Queries with Local Differential Privacy [27.59934932590226]
ローカル微分プライバシ(LDP)は、個々のデータプライバシを保護するための主要なプライバシモデルである。
我々は、値の摂動ではなく、値のインデックスにランダム化を適用する別のアプローチを提案する。
乱数化インデックスのデニビリティに着想を得て,集合値データに対するサブセットカウントクエリに応答するCRIADを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:08:11Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Privacy-Preserving Optimal Parameter Selection for Collaborative Clustering [2.107610564835429]
私たちは、複数のデータオーナがデータを結合するコラボレーティブフレームワークにおける、重要なクラスタリングアルゴリズムに注目しています。
半信頼できるサーバは、最も適切なクラスタリングアルゴリズムとそのパラメータを推奨する。
調査の結果,プライバシパラメータ(epsilon$)がサーバのレコメンデーションに最小限に影響を及ぼすが,$epsilon$の増加はメンバシップ推論攻撃のリスクを増大させることがわかった。
論文 参考訳(メタデータ) (2024-06-08T18:21:12Z) - Reinforcement Learning with Heterogeneous Data: Estimation and Inference [84.72174994749305]
人口の不均一性に関する逐次的決定問題に対処するために,K-ヘテロ・マルコフ決定過程(K-ヘテロ・MDP)を導入する。
本稿では、ある政策の価値を推定するための自己クラスタ化政策評価(ACPE)と、ある政策クラスにおける最適な政策を推定するための自己クラスタ化政策イテレーション(ACPI)を提案する。
理論的な知見を裏付けるシミュレーションを行い,MIMIC-III標準データセットの実証的研究を行った。
論文 参考訳(メタデータ) (2022-01-31T20:58:47Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。