論文の概要: Quantifying Classifier Utility under Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2507.02727v2
- Date: Mon, 03 Nov 2025 19:13:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 20:56:28.990519
- Title: Quantifying Classifier Utility under Local Differential Privacy
- Title(参考訳): 地域差分プライバシに基づく分類用ユーティリティの定量化
- Authors: Ye Zheng, Yidan Hu,
- Abstract要約: ローカルディファレンシャルプライバシ(LDP)は、データソースに摂動を導入することで、個人データに対する定量的なプライバシ保証を提供する。
本稿では, LDP機構下での分類器の有効性を理論的に定量化するための統一的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.802907024025868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local differential privacy (LDP) offers rigorous, quantifiable privacy guarantees for personal data by introducing perturbations at the data source. Understanding how these perturbations affect classifier utility is crucial for both designers and users. However, a general theoretical framework for quantifying this impact is lacking and also challenging, especially for complex or black-box classifiers. This paper presents a unified framework for theoretically quantifying classifier utility under LDP mechanisms. The key insight is that LDP perturbations are concentrated around the original data with a specific probability, allowing utility analysis to be reframed as robustness analysis within this concentrated region. Our framework thus connects the concentration properties of LDP mechanisms with the robustness of classifiers, treating LDP mechanisms as general distributional functions and classifiers as black boxes. This generality enables applicability to any LDP mechanism and classifier. A direct application of our utility quantification is guiding the selection of LDP mechanisms and privacy parameters for a given classifier. Notably, our analysis shows that piecewise-based mechanisms often yield better utility than alternatives in common scenarios. Beyond the core framework, we introduce two novel refinement techniques that further improve utility quantification. We then present case studies illustrating utility quantification for various combinations of LDP mechanisms and classifiers. Results demonstrate that our theoretical quantification closely matches empirical observations, particularly when classifiers operate in lower-dimensional input spaces.
- Abstract(参考訳): ローカルディファレンシャルプライバシ(LDP)は、データソースに摂動を導入することで、個人データに対して厳格で定量的なプライバシ保証を提供する。
これらの摂動が分類ユーティリティにどのように影響するかを理解することは、デザイナとユーザの両方にとって重要である。
しかし、この影響を定量化するための一般的な理論的枠組みは欠如しており、特に複雑あるいはブラックボックスの分類器では困難である。
本稿では, LDP機構下での分類器の有効性を理論的に定量化するための統一的な枠組みを提案する。
鍵となる洞察は、LDP摂動は元のデータを中心に特定の確率で集中しており、ユーティリティ分析をこの集中領域内のロバストネス分析として再構成できるということである。
この枠組みは, LDP機構の濃度特性と分類器の堅牢性を結びつけ, LDP機構を一般分布関数として扱い, 分類器をブラックボックスとして扱う。
この一般化により、いかなる LDP 機構や分類器にも適用可能である。
我々のユーティリティ定量化の直接的な応用は、与えられた分類器に対する LDP メカニズムとプライバシパラメータの選択を導くことである。
特に、我々の分析では、共通シナリオにおける代替手段よりも、断片的なメカニズムがより良い実用性をもたらすことがしばしば示されています。
コアフレームワークの他に、ユーティリティの定量化をさらに改善する2つの新しい改善手法を導入する。
そこで本研究では, LDP機構と分類器の様々な組み合わせに対する有効定量化を実証するケーススタディを提案する。
以上の結果から,我々の理論的定量化は経験的観測と密接に一致していることが明らかとなった。
関連論文リスト
- Causal Mechanism Estimation in Multi-Sensor Systems Across Multiple Domains [34.02899134427814]
本稿では,複数の領域にまたがる異種データから因果関係を推定する新しい3段階のアプローチを提案する。
因果転移学習(Causal Transfer Learning, CTL)の原理を活用することで, CICMEは十分なサンプルが与えられた場合に, ドメイン不変因果機構を確実に検出することができる。
CICMEは、プールされたデータに因果探索を適用し、各ドメインのデータに繰り返し適用することで利点を生かし、特定のシナリオ下では両方のベースライン手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-07-23T10:35:37Z) - Detecting and Pruning Prominent but Detrimental Neurons in Large Language Models [68.57424628540907]
大規模言語モデル(LLM)は、しばしば特定のデータセットに特化した学習メカニズムを開発する。
本稿では,データセット固有のメカニズムに関連するニューロンの同定と解析により,一般化の促進を目的とした微調整手法を提案する。
本手法では,各ニューロンの高信頼度予測への影響を定量化するため,データセット固有の性能に不均等に寄与するニューロンを同定する。
論文 参考訳(メタデータ) (2025-07-12T08:10:10Z) - Optimal Piecewise-based Mechanism for Collecting Bounded Numerical Data under Local Differential Privacy [5.258253745672122]
ローカルディファレンシャルプライバシ(LDP)は、サードパーティプラットフォームが信頼できない場合でも、証明可能な個々のプライバシを提供するフレームワークとして示されている。
本稿では, LDP 下でのデータ有効性を最大化するために, ピースワイズ方式の最適設計について検討する。
論文 参考訳(メタデータ) (2025-05-21T13:01:41Z) - Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Differentially Private Range Queries with Correlated Input Perturbation [9.169888822435757]
本稿では,線形クエリに対して,不偏性,一貫性,統計的透明性,ユーティリティ要件に対する制御を実現するために,相関入力摂動を利用した微分プライベートなメカニズムのクラスを提案する。
我々の理論的および実証的な分析は、我々はほぼ最適の効用を達成し、他の方法と効果的に競合し、議論された全ての好ましい統計特性を維持できることを示す。
論文 参考訳(メタデータ) (2024-02-10T23:42:05Z) - Boosted Control Functions: Distribution generalization and invariance in confounded models [10.503777692702952]
非線形で非同定可能な構造関数が存在する場合でも分布の一般化を可能にする不変性という強い概念を導入する。
フレキシブルな機械学習手法を用いて,ブースト制御関数(BCF)を推定する制御Twicingアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-09T15:43:46Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。