論文の概要: Differentially Private Synthetic Data Generation Using Context-Aware GANs
- arxiv url: http://arxiv.org/abs/2512.08869v1
- Date: Tue, 09 Dec 2025 18:02:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.078974
- Title: Differentially Private Synthetic Data Generation Using Context-Aware GANs
- Title(参考訳): 文脈認識型GANを用いた微分プライベートな合成データ生成
- Authors: Anantaa Kotal, Anupam Joshi,
- Abstract要約: ドメイン固有のルールを統合するContext-Aware Differentially Private Generative Adversarial Networkを提案する。
ContextGANは、ドメインルールを尊重し、プライバシを保存する高品質な合成データを生成する。
その結果,ContextGANはドメイン制約を強制することによって現実性と実用性を向上することを示した。
- 参考スコア(独自算出の注目度): 1.440541589945769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of big data across sectors has raised major privacy concerns, especially when sensitive information is shared or analyzed. Regulations such as GDPR and HIPAA impose strict controls on data handling, making it difficult to balance the need for insights with privacy requirements. Synthetic data offers a promising solution by creating artificial datasets that reflect real patterns without exposing sensitive information. However, traditional synthetic data methods often fail to capture complex, implicit rules that link different elements of the data and are essential in domains like healthcare. They may reproduce explicit patterns but overlook domain-specific constraints that are not directly stated yet crucial for realism and utility. For example, prescription guidelines that restrict certain medications for specific conditions or prevent harmful drug interactions may not appear explicitly in the original data. Synthetic data generated without these implicit rules can lead to medically inappropriate or unrealistic profiles. To address this gap, we propose ContextGAN, a Context-Aware Differentially Private Generative Adversarial Network that integrates domain-specific rules through a constraint matrix encoding both explicit and implicit knowledge. The constraint-aware discriminator evaluates synthetic data against these rules to ensure adherence to domain constraints, while differential privacy protects sensitive details from the original data. We validate ContextGAN across healthcare, security, and finance, showing that it produces high-quality synthetic data that respects domain rules and preserves privacy. Our results demonstrate that ContextGAN improves realism and utility by enforcing domain constraints, making it suitable for applications that require compliance with both explicit patterns and implicit rules under strict privacy guarantees.
- Abstract(参考訳): セクターにまたがるビッグデータの普及は、特に機密情報の共有や分析において、大きなプライバシー上の懸念を引き起こしている。
GDPRやHIPAAなどの規制はデータ処理に厳格な規制を課しているため、洞察とプライバシー要件のバランスを取ることは困難である。
合成データは、機密情報を暴露することなく、実際のパターンを反映する人工データセットを作成することで、有望なソリューションを提供する。
しかし、従来の合成データ手法は、データの異なる要素をリンクする複雑な暗黙の規則を捉えず、医療のような領域で必須であることが多い。
明示的なパターンを再現することもあるが、現実主義やユーティリティーにはあまり重要でないドメイン固有の制約を見落としている。
例えば、特定の条件で特定の薬物を制限したり、有害な薬物相互作用を予防する処方薬ガイドラインは、元のデータに明示的に現れないことがある。
これらの暗黙の規則なしで生成された合成データは、医学的に不適切または非現実的なプロファイルにつながる可能性がある。
このギャップに対処するために、明示的知識と暗黙的知識の両方を符号化する制約行列を通じてドメイン固有のルールを統合するContext-Aware Differentially Private Generative Adversarial Network(ContextGAN)を提案する。
制約対応識別器は、これらのルールに対して合成データを評価し、ドメイン制約の遵守を保証する一方、差分プライバシーは元のデータから機密情報を保護する。
医療、セキュリティ、ファイナンスにまたがってContextGANを検証することで、ドメインルールを尊重し、プライバシを保存する高品質な合成データを生成することを示す。
その結果、ContextGANはドメイン制約を強制することでリアリズムとユーティリティを改善し、厳格なプライバシー保証の下で明示的なパターンと暗黙的なルールの両方を遵守する必要があるアプリケーションに適合することを示した。
関連論文リスト
- How to DP-fy Your Data: A Practical Guide to Generating Synthetic Data With Differential Privacy [52.00934156883483]
Differential Privacy(DP)は、情報漏洩を推論し、制限するフレームワークである。
Differentially Private Synthetic Dataは、ソースデータの全体的なトレンドを保存する合成データを指す。
論文 参考訳(メタデータ) (2025-12-02T21:14:39Z) - PRIVET: Privacy Metric Based on Extreme Value Theory [8.447463478355845]
深層生成モデルは、しばしば、遺伝配列、健康データ、より広範に、著作権、ライセンス、保護されたコンテンツなどの機密データに基づいて訓練される。
これにより、プライバシー保護のための合成データ、より具体的にはプライバシー漏洩に関する重要な懸念が持ち上がる。
本稿では,個別のプライバシリークスコアを合成サンプルに割り当てる,汎用的なサンプルベースモダリティ非依存アルゴリズムPRIVETを提案する。
論文 参考訳(メタデータ) (2025-10-28T09:42:03Z) - SynBench: A Benchmark for Differentially Private Text Generation [35.908455649647784]
医療や金融といった高度な分野におけるデータ駆動型意思決定のサポートは、データ共有にとって大きな障壁に直面している。
大規模言語モデルのような最近の生成AIモデルは、オープンドメインタスクにおいて印象的なパフォーマンスを示している。
しかし、彼らのセンシティブな環境への導入は、予測不可能な振る舞いと、プライバシー保護の不十分なデータセットによって制限されている。
論文 参考訳(メタデータ) (2025-09-18T03:57:50Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Evaluating Differentially Private Generation of Domain-Specific Text [33.72321050465059]
差分プライバシー保証の下で生成されたテキストデータセットの有用性と忠実度を体系的に評価するための統一ベンチマークを導入する。
ドメイン固有の5つのデータセットにまたがって、最先端のプライバシ保存手法を評価する。
論文 参考訳(メタデータ) (2025-08-28T05:57:47Z) - RL-Finetuned LLMs for Privacy-Preserving Synthetic Rewriting [17.294176570269]
本稿では,複合報酬関数を用いた大規模言語モデル(LLM)を微調整する強化学習フレームワークを提案する。
プライバシ報酬は、セマンティックキューと、潜伏表現上の最小スパンニングツリー(MST)から派生した構造パターンを組み合わせる。
実験の結果,提案手法はセマンティック品質を劣化させることなく,著者の難読化とプライバシーの指標を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-25T04:38:19Z) - KIPPS: Knowledge infusion in Privacy Preserving Synthetic Data
Generation [0.0]
生成的ディープラーニングモデルは、ドメイン制約のある離散的および非ガウス的特徴をモデル化するのに苦労する。
生成モデルは、プライバシーリスクであるセンシティブな機能を繰り返す合成データを生成する。
本稿では,知識グラフから知識グラフにドメインと規則的知識を注入する新しいモデルKIPPSを提案する。
論文 参考訳(メタデータ) (2024-09-25T19:50:03Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。