論文の概要: Achieving Hilbert-Schmidt Independence Under Rényi Differential Privacy for Fair and Private Data Generation
- arxiv url: http://arxiv.org/abs/2508.21815v1
- Date: Fri, 29 Aug 2025 17:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.14092
- Title: Achieving Hilbert-Schmidt Independence Under Rényi Differential Privacy for Fair and Private Data Generation
- Title(参考訳): 公正かつプライベートなデータ生成のためのRényi差分プライバシーの下でHilbert-Schmidt独立を達成する
- Authors: Tobias Hyrup, Emmanouil Panagiotou, Arjun Roy, Arthur Zimek, Eirini Ntoutsi, Peter Schneider-Kamp,
- Abstract要約: リスク対応データ共有とモデル開発のための有望なソリューションとして、合成データ生成が登場した。
この設定におけるプライバシーと公平性の両方の懸念に対処するため、我々は(プライバシ保証の下でのファイア・レイト・インターベンション)を提案する。
公平性を意識したデータ生成の一般的な設定とは異なり、固定された下流タスクに依存せず、タスクに依存しない設定を仮定し、より広い適用性を提供します。
- 参考スコア(独自算出の注目度): 5.428917824315977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As privacy regulations such as the GDPR and HIPAA and responsibility frameworks for artificial intelligence such as the AI Act gain traction, the ethical and responsible use of real-world data faces increasing constraints. Synthetic data generation has emerged as a promising solution to risk-aware data sharing and model development, particularly for tabular datasets that are foundational to sensitive domains such as healthcare. To address both privacy and fairness concerns in this setting, we propose FLIP (Fair Latent Intervention under Privacy guarantees), a transformer-based variational autoencoder augmented with latent diffusion to generate heterogeneous tabular data. Unlike the typical setup in fairness-aware data generation, we assume a task-agnostic setup, not reliant on a fixed, defined downstream task, thus offering broader applicability. To ensure privacy, FLIP employs R\'enyi differential privacy (RDP) constraints during training and addresses fairness in the input space with RDP-compatible balanced sampling that accounts for group-specific noise levels across multiple sampling rates. In the latent space, we promote fairness by aligning neuron activation patterns across protected groups using Centered Kernel Alignment (CKA), a similarity measure extending the Hilbert-Schmidt Independence Criterion (HSIC). This alignment encourages statistical independence between latent representations and the protected feature. Empirical results demonstrate that FLIP effectively provides significant fairness improvements for task-agnostic fairness and across diverse downstream tasks under differential privacy constraints.
- Abstract(参考訳): GDPRやHIPAAのようなプライバシー規制やAI法のような人工知能の責任枠組みが勢いを増すにつれ、現実世界のデータに対する倫理的かつ責任ある使用は、制約の増大に直面している。
合成データ生成は、リスクを意識したデータ共有とモデル開発、特に医療などのセンシティブなドメインの基礎となる表形式のデータセットに対する、有望なソリューションとして登場した。
この設定におけるプライバシーと公平性の両方の懸念に対処するため、不均一な表データを生成するために遅延拡散を付加したトランスフォーマーベースの変分オートエンコーダであるFLIP(Fair Latent Intervention under Privacy guarantees)を提案する。
公平性を意識したデータ生成の一般的な設定とは異なり、固定された下流タスクに依存せず、タスクに依存しない設定を仮定し、より広い適用性を提供します。
プライバシーを確保するため、FLIPはトレーニング中にR\'enyi差分プライバシー(RDP)制約を採用し、複数のサンプリングレートでグループ固有のノイズレベルを考慮に入れたRDP互換のバランスサンプリングで入力空間の公平性に対処する。
潜伏空間では、Hilbert-Schmidt Independence Criterion(HSIC)を拡張した類似度尺度であるCKA(Centered Kernel Alignment)を用いて、保護されたグループ間でニューロンの活性化パターンを整列させることにより、公正性を促進する。
このアライメントは、潜在表現と保護された特徴の間の統計的独立を促進する。
実証実験の結果,FLIPはタスク非依存の公平性や,差分プライバシー制約下での様々な下流タスクに対して,有効に公平性向上を提供することが示された。
関連論文リスト
- Toward Fair Federated Learning under Demographic Disparities and Data Imbalance [8.444310568786408]
フェデレートラーニング(Federated Learning, FL)は、機関間のプライバシー保護コラボレーションを可能にする。
フェアネスを意識した正規化とグループ条件オーバサンプリングを組み合わせたフレームワークに依存しないFedIDAを提案する。
FedIDAは、競争力のある予測性能を維持しながら、常に公正性を向上することを示す。
論文 参考訳(メタデータ) (2025-05-14T11:22:54Z) - Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI [6.671649946926508]
フェデレーテッド・ラーニング(FL)におけるプライバシ・フェアネス・ユーティリティ・トレードオフに関する大規模な実証的研究について紹介する。
フェアネス・アウェアと差分プライバシー(DP)、同相暗号化(HE)、セキュアマルチパーティ暗号化(SMC)を比較した。
DPメカニズムは、公平性、歪み、公平性に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-03-20T15:31:01Z) - $(ε, δ)$-Differentially Private Partial Least Squares Regression [1.8666451604540077]
我々は,モデルに基づくデータのプライバシーを確保するために,$(epsilon, delta)$-differentially private PLS (edPLS)アルゴリズムを提案する。
実験により、EDPLSはトレーニングデータに固有の変動源を回復することを目的とした、効果的なプライバシー攻撃を施すことが示されている。
論文 参考訳(メタデータ) (2024-12-12T10:49:55Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy Constrained Fairness Estimation for Decision Trees [2.9906966931843093]
任意のAIモデルの公平さを測定するには、データセット内の個人の敏感な属性が必要である。
プライバシ・アウェア・フェアネス・オブ・ルール(PAFER)と呼ばれる新しい手法を提案する。
提案手法は,ラプラシアン機構を用いて,データセット内の個人のプライバシーを高い確度で保証しつつ,低い誤差でSPを推定できることを示す。
論文 参考訳(メタデータ) (2023-12-13T14:54:48Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。