論文の概要: FusionDP: Foundation Model-Assisted Differentially Private Learning for Partially Sensitive Features
- arxiv url: http://arxiv.org/abs/2511.03806v1
- Date: Wed, 05 Nov 2025 19:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.190683
- Title: FusionDP: Foundation Model-Assisted Differentially Private Learning for Partially Sensitive Features
- Title(参考訳): FusionDP:部分的感性特徴のための基礎モデル支援差分学習
- Authors: Linghui Zeng, Ruixuan Liu, Atiquer Rahman Sarkar, Xiaoqian Jiang, Joyce C. Ho, Li Xiong,
- Abstract要約: 現実的なシナリオでは、機能のサブセットにのみプライバシ保護が要求される場合がある。
従来のDP-SGDは1つのサンプルですべての機能に対してプライバシー保護を強制し、過剰なノイズ注入と大きなユーティリティ劣化を引き起こす。
特徴レベルの差分プライバシーの下でモデルユーティリティを向上させる2段階のフレームワークであるFusionDPを提案する。
- 参考スコア(独自算出の注目度): 17.945111987608865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring the privacy of sensitive training data is crucial in privacy-preserving machine learning. However, in practical scenarios, privacy protection may be required for only a subset of features. For instance, in ICU data, demographic attributes like age and gender pose higher privacy risks due to their re-identification potential, whereas raw lab results are generally less sensitive. Traditional DP-SGD enforces privacy protection on all features in one sample, leading to excessive noise injection and significant utility degradation. We propose FusionDP, a two-step framework that enhances model utility under feature-level differential privacy. First, FusionDP leverages large foundation models to impute sensitive features given non-sensitive features, treating them as external priors that provide high-quality estimates of sensitive attributes without accessing the true values during model training. Second, we introduce a modified DP-SGD algorithm that trains models on both original and imputed features while formally preserving the privacy of the original sensitive features. We evaluate FusionDP on two modalities: a sepsis prediction task on tabular data from PhysioNet and a clinical note classification task from MIMIC-III. By comparing against privacy-preserving baselines, our results show that FusionDP significantly improves model performance while maintaining rigorous feature-level privacy, demonstrating the potential of foundation model-driven imputation to enhance the privacy-utility trade-off for various modalities.
- Abstract(参考訳): 機密性のあるトレーニングデータのプライバシを確保することは、プライバシ保護機械学習において不可欠である。
しかし、現実的なシナリオでは、機能のサブセットにのみプライバシ保護が要求される場合がある。
例えば、ICUのデータでは、年齢や性別などの人口統計学的属性は、再識別の可能性によってプライバシーリスクが高くなるが、生の検査結果は一般的には感度が低い。
従来のDP-SGDは、1つのサンプルですべての機能に対してプライバシー保護を強制し、過剰なノイズ注入と大きなユーティリティ劣化を引き起こす。
特徴レベルの差分プライバシーの下でモデルユーティリティを向上させる2段階のフレームワークであるFusionDPを提案する。
まず、FusionDPは、大きめの基盤モデルを利用して、非機密性のある特徴を付与し、それらを外部の事前として扱い、モデルトレーニング中に真の値にアクセスすることなく、機密性のある属性の高品質な見積もりを提供する。
第2に、修正されたDP-SGDアルゴリズムを導入し、元の特徴とインプットの両方でモデルのトレーニングを行い、元の機密機能のプライバシを正式に保護する。
今回我々はFusionDPを2つのモードで評価した。PhyloNetの表型データに対するセシス予測タスクとMIMIC-IIIによる臨床ノート分類タスクである。
この結果から,FusionDPは厳格な機能レベルのプライバシを維持しつつ,モデル性能を著しく向上させ,各種モダリティのプライバシ・ユーティリティ・トレードオフを強化する基盤モデル駆動型計算の可能性を示した。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Differentially Private 2D Human Pose Estimation [6.982542225631412]
微分プライベートな2次元ポーズ推定(2D-HPE)のための最初の包括的枠組みを提案する。
プライバシ性能を効果的にバランスするために,低次元部分空間へのノイズ勾配を投影するProjected DP-SGDを採用した。
次に、FDP(Feature Differential Privacy)を導入し、公共の視覚的手がかりを維持しながら、機密機能のみを選択的に民営化する。
論文 参考訳(メタデータ) (2025-04-14T12:50:37Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Differentially Private Fine-Tuning of Diffusion Models [22.454127503937883]
微分プライバシーと拡散モデル(DM)の統合は、有望だが挑戦的なフロンティアを示している。
この分野での最近の進歩は、公開データによる事前学習によって高品質な合成データを生成する可能性を強調している。
本稿では,プライバシとユーティリティのトレードオフを高めるために,トレーニング可能なパラメータの数を最小限に抑える,プライベート拡散モデルに最適化された戦略を提案する。
論文 参考訳(メタデータ) (2024-06-03T14:18:04Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。