論文の概要: Differentially Private Multi-objective Selection: Pareto and Aggregation Approaches
- arxiv url: http://arxiv.org/abs/2412.14380v1
- Date: Wed, 18 Dec 2024 22:30:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:29:16.477517
- Title: Differentially Private Multi-objective Selection: Pareto and Aggregation Approaches
- Title(参考訳): 個人別多目的選択:パレートとアグリゲーションアプローチ
- Authors: Victor A. E. Farias, Felipe T. Brito, Cheryl Flynn, Javam C. Machado, Divesh Srivastava,
- Abstract要約: 本稿では,PrivParetoとPrivAggの2つの新しい選択機構について述べる。
どちらもグローバルおよびローカルな感度アプローチをサポートし、複数のユーティリティ関数の感度をどのように構成するかを示す包括的な理論的分析を行う。
ソーシャルネットワークにおけるコスト感受性決定木構築と多目的影響ノード選択の2つの実世界の応用例を実演する。
- 参考スコア(独自算出の注目度): 9.143897894525423
- License:
- Abstract: Differentially private selection mechanisms are fundamental building blocks for privacy-preserving data analysis. While numerous mechanisms exist for single-objective selection, many real-world applications require optimizing multiple competing objectives simultaneously. We present two novel mechanisms for differentially private multi-objective selection: PrivPareto and PrivAgg. PrivPareto uses a novel Pareto score to identify solutions near the Pareto frontier, while PrivAgg enables privacy-preserving weighted aggregation of multiple objectives. Both mechanisms support global and local sensitivity approaches, with comprehensive theoretical analysis showing how to compose sensitivities of multiple utility functions. We demonstrate the practical applicability through two real-world applications: cost-sensitive decision tree construction and multi-objective influential node selection in social networks. The experimental results showed that our local sensitivity-based approaches achieve significantly better utility compared to global sensitivity approaches across both applications and both Pareto and Aggregation approaches. Moreover, the local sensitivity-based approaches are able to perform well with typical privacy budget values $\epsilon \in [0.01, 1]$ in most experiments.
- Abstract(参考訳): 異なるプライベート選択メカニズムは、プライバシ保存データ分析のための基本的なビルディングブロックである。
単目的選択のための多くのメカニズムが存在するが、現実のアプリケーションの多くは、複数の競合する目的を同時に最適化する必要がある。
本稿では,PrivParetoとPrivAggの2つの新しい選択機構について述べる。
PrivParetoは、新しいParetoスコアを使用して、Paretoフロンティア近くのソリューションを特定し、PrivAggは、複数の目的のプライバシ保護重み付けアグリゲーションを可能にする。
どちらのメカニズムもグローバルおよびローカルな感度アプローチをサポートしており、複数のユーティリティ関数の感度をどのように構成するかを示す包括的な理論的分析を行っている。
ソーシャルネットワークにおけるコスト感受性決定木構築と多目的影響ノード選択の2つの実世界の応用例を実演する。
実験の結果, 局所感度に基づくアプローチは, 双方のアプリケーションおよびParetoおよびAggregationアプローチのグローバル感度アプローチと比較して, 極めて有効性が高いことがわかった。
さらに、ローカル感度ベースのアプローチは、ほとんどの実験で典型的なプライバシー予算値である$\epsilon \in [0.01, 1]$とうまく機能する。
関連論文リスト
- Provably Efficient Multi-Objective Bandit Algorithms under Preference-Centric Customization [24.533662423325943]
明示的なユーザ嗜好の存在下で、嗜好を意識したMO-MABフレームワークについて検討する。
これは、明示的なユーザの好みを持つカスタマイズされたMO-MAB最適化に関する最初の理論的研究である。
論文 参考訳(メタデータ) (2025-02-19T06:06:13Z) - Uncertain Multi-Objective Recommendation via Orthogonal Meta-Learning Enhanced Bayesian Optimization [30.031396809114625]
本稿では,ルールベースの精度駆動システムから行動認識,不確実な多目的RSに至るまで,RSの自律性を5つの異なるレベルに分類する新しい枠組みを提案する。
個人の好みに基づいて複数の目的を動的に識別し、最適化し、より倫理的でインテリジェントなユーザー中心のレコメンデーションを促進するアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T08:10:09Z) - Optimal Federated Learning for Functional Mean Estimation under Heterogeneous Privacy Constraints [1.3654846342364308]
Federated Learning(FL)は、データのプライバシとセキュリティを保護するために設計された分散機械学習技術である。
本稿では,フェデレーション環境での離散サンプリングデータからの最適関数平均推定の問題に対処する。
論文 参考訳(メタデータ) (2024-12-25T22:06:12Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Pareto Inverse Reinforcement Learning for Diverse Expert Policy Generation [6.876580618014666]
本稿では,識別器の正則化のための報酬距離推定を用いて,逆強化学習(IRL)を適用する。
本稿では,多目的制御タスクにおいて,ParIRLが他のIRLアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2024-08-22T03:51:39Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Multi-Target Multiplicity: Flexibility and Fairness in Target
Specification under Resource Constraints [76.84999501420938]
対象の選択が個人の結果にどのように影響するかを評価するための概念的および計算的枠組みを導入する。
目的変数選択から生じる多重度は, 1つのターゲットのほぼ最適モデルから生じるものよりも大きいことが示される。
論文 参考訳(メタデータ) (2023-06-23T18:57:14Z) - Optimal and Differentially Private Data Acquisition: Central and Local
Mechanisms [9.599356978682108]
プライバシに敏感なユーザからデータを収集するプラットフォームの問題を考え,その基盤となる関心パラメータを推定する。
ユーザに対して、プライバシ保証を提供するための2つの一般的な差分プライバシ設定について検討する。
このメカニズム設計問題は,ユーザのプライバシ感を真に報告するための推定器と支払器の最適選択として機能する。
論文 参考訳(メタデータ) (2022-01-10T00:27:43Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。