論文の概要: An Interactive Framework for Finding the Optimal Trade-off in Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.04290v1
- Date: Thu, 04 Sep 2025 15:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.195534
- Title: An Interactive Framework for Finding the Optimal Trade-off in Differential Privacy
- Title(参考訳): 微分プライバシーにおける最適トレードオフを見つけるための対話型フレームワーク
- Authors: Yaohong Yang, Aki Rehn, Sammie Katt, Antti Honkela, Samuel Kaski,
- Abstract要約: プライバシ保護分析の標準として差分プライバシー(DP)を導入し,プライバシ保証とモデル性能の基本的なトレードオフを導入する。
特に,ユーザに対して,仮説上のトレードオフ曲線を提示し,好みのトレードオフを選択するよう依頼する。
実世界の6つのデータセットにまたがる差分的ロジスティック回帰と深層移動学習実験により,本手法が最適プライバシー・正確性トレードオフに収束していることが判明した。
- 参考スコア(独自算出の注目度): 20.038766371144526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) is the standard for privacy-preserving analysis, and introduces a fundamental trade-off between privacy guarantees and model performance. Selecting the optimal balance is a critical challenge that can be framed as a multi-objective optimization (MOO) problem where one first discovers the set of optimal trade-offs (the Pareto front) and then learns a decision-maker's preference over them. While a rich body of work on interactive MOO exists, the standard approach -- modeling the objective functions with generic surrogates and learning preferences from simple pairwise feedback -- is inefficient for DP because it fails to leverage the problem's unique structure: a point on the Pareto front can be generated directly by maximizing accuracy for a fixed privacy level. Motivated by this property, we first derive the shape of the trade-off theoretically, which allows us to model the Pareto front directly and efficiently. To address inefficiency in preference learning, we replace pairwise comparisons with a more informative interaction. In particular, we present the user with hypothetical trade-off curves and ask them to pick their preferred trade-off. Our experiments on differentially private logistic regression and deep transfer learning across six real-world datasets show that our method converges to the optimal privacy-accuracy trade-off with significantly less computational cost and user interaction than baselines.
- Abstract(参考訳): 差別化プライバシ(DP)は、プライバシ保護分析の標準であり、プライバシ保証とモデルパフォーマンスの基本的なトレードオフを導入している。
最適バランスの選択は、最適トレードオフ(パレートフロント)の集合を最初に発見し、それよりも意思決定者の好みを学習する、多目的最適化(MOO)問題としてフレーム化できる重要な課題である。
インタラクティブなMOOに関する豊富な作業が存在しているが、標準的なアプローチ -- 汎用的なサロゲートと単純なペアワイズフィードバックからの学習選好による客観的関数のモデリング -- は、問題のユニークな構造を活用できないため、DPにとって非効率である。
この性質により、我々はまずトレードオフの形状を理論的に導出し、パレートフロントを直接かつ効率的にモデル化することができる。
選好学習における非効率性に対処するために、ペアワイズ比較をより情報的な相互作用に置き換える。
特に,ユーザに対して,仮説上のトレードオフ曲線を提示し,好みのトレードオフを選択するよう依頼する。
実世界の6つのデータセットにまたがる差分的ロジスティック回帰と深層移動学習実験により,本手法が最適プライバシー・正確性トレードオフに収束し,計算コストとユーザインタラクションがベースラインよりもはるかに少ないことを示した。
関連論文リスト
- Tackling Privacy Heterogeneity in Differentially Private Federated Learning [33.2985262258717]
微分プライベート・フェデレーション・ラーニング(DP-FL)におけるプライバシ・アウェア・クライアント選択に関する最初の体系的研究について述べる。
本稿では,選択確率を適応的に調整し,トレーニングエラーを最小限に抑える,凸最適化問題として定式化されたプライバシ対応クライアント選択戦略を提案する。
提案手法は,ベンチマークデータセットにおけるテスト精度を最大10%向上させる。
論文 参考訳(メタデータ) (2026-02-26T05:20:37Z) - Synthetic Interaction Data for Scalable Personalization in Large Language Models [67.31884245564086]
本稿ではPersonaGymという高忠実な合成データ生成フレームワークを紹介する。
パーソナライゼーションを静的なペルソナ-参照ペアとして扱う以前の作業とは異なり、PersonaGymは動的な選好プロセスをモデル化する。
我々は,高忠実度マルチターンパーソナライズされたインタラクショントラジェクトリの大規模かつ高品質で多様な合成データセットであるPersonaAtlasをリリースする。
論文 参考訳(メタデータ) (2026-02-12T20:41:22Z) - Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - Multi-Level Aware Preference Learning: Enhancing RLHF for Complex Multi-Instruction Tasks [81.44256822500257]
RLHFは、人工知能システムと人間の好みを結びつける主要なアプローチとして登場した。
RLHFは、複雑なマルチインストラクションタスクに直面すると、不十分なコンプライアンス機能を示す。
本稿では,マルチインストラクション能力を向上させる新しいMAPL(Multi-level Aware Preference Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T08:33:11Z) - Improved Algorithms for Differentially Private Language Model Alignment [12.611907955831597]
プライバシ保護アライメントのための新しいアルゴリズムを提案する。
私たちのフレームワークは2つの著名なアライメント技術にデプロイできます。
我々のアルゴリズムの1つであるDP-AdamWとDPOは、従来の手法を超越し、適度なプライバシー予算の下でアライメント品質を最大15%改善します。
論文 参考訳(メタデータ) (2025-05-13T16:18:59Z) - Multi-Objective Optimization for Privacy-Utility Balance in Differentially Private Federated Learning [12.278668095136098]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
本稿では,多目的最適化フレームワークを用いて動的にクリッピング規範を調整する適応型クリッピング機構を提案する。
以上の結果から,適応的クリッピングは固定クリッピングベースラインを一貫して上回り,同一のプライバシー制約下での精度の向上を実現している。
論文 参考訳(メタデータ) (2025-03-27T04:57:05Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Bridging and Modeling Correlations in Pairwise Data for Direct Preference Optimization [75.1240295759264]
本稿では,BMC という名前のペアデータにおけるブリッジ・アンド・モデリングの効果的なフレームワークを提案する。
目的の修正によって、ペアの選好信号の一貫性と情報性が向上する。
DPOだけではこれらの相関をモデル化し、ニュアンス付き変動を捉えるには不十分である。
論文 参考訳(メタデータ) (2024-08-14T11:29:47Z) - A Theoretical Analysis of Efficiency Constrained Utility-Privacy
Bi-Objective Optimization in Federated Learning [23.563789510998333]
フェデレートラーニング(FL)は、複数のクライアントが、個々のデータを共有せずに、共同で共有モデルを学ぶことを可能にする。
FLでは差別化プライバシが一般的なテクニックとして登場し、ユーティリティやトレーニング効率に影響を与えながら、個々のユーザデータのプライバシを保護する。
本稿ではDPFLにおける効率制約付きユーティリティプライバシ双目的最適化問題を体系的に定式化する。
論文 参考訳(メタデータ) (2023-12-27T12:37:55Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Learning with Impartiality to Walk on the Pareto Frontier of Fairness,
Privacy, and Utility [28.946180502706504]
機械学習パイプラインは、別の目的を優先すべきではない、と私たちは主張する。
本稿では,目的間の固有のトレードオフを示す,公平に特定されたモデルを提案する。
プライバシを意識したMLパイプラインに、公正さの緩和が組み込まれるべきかどうかという疑問に対する回答を提供する。
論文 参考訳(メタデータ) (2023-02-17T23:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。