論文の概要: Personalized Federated Training of Diffusion Models with Privacy Guarantees
- arxiv url: http://arxiv.org/abs/2504.00952v1
- Date: Tue, 01 Apr 2025 16:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:41.459033
- Title: Personalized Federated Training of Diffusion Models with Privacy Guarantees
- Title(参考訳): プライバシ保証を伴う拡散モデルの個人化フェデレーショントレーニング
- Authors: Kumar Kshitij Patel, Weitong Zhang, Lingxiao Wang,
- Abstract要約: アクセシビリティ、コンプライアンス、倫理的根拠を持つデータの不足は、センシティブな分野における人工知能(AI)の採用への挑戦である。
プライバシー、著作権、競争に対する懸念が高まっているため、制限のない公開データセットへのアクセスはますます制限されている。
合成データは有望な代替手段として登場し、拡散モデルは高品質で多様な合成データを生成する効果的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 11.070686178995208
- License:
- Abstract: The scarcity of accessible, compliant, and ethically sourced data presents a considerable challenge to the adoption of artificial intelligence (AI) in sensitive fields like healthcare, finance, and biomedical research. Furthermore, access to unrestricted public datasets is increasingly constrained due to rising concerns over privacy, copyright, and competition. Synthetic data has emerged as a promising alternative, and diffusion models -- a cutting-edge generative AI technology -- provide an effective solution for generating high-quality and diverse synthetic data. In this paper, we introduce a novel federated learning framework for training diffusion models on decentralized private datasets. Our framework leverages personalization and the inherent noise in the forward diffusion process to produce high-quality samples while ensuring robust differential privacy guarantees. Our experiments show that our framework outperforms non-collaborative training methods, particularly in settings with high data heterogeneity, and effectively reduces biases and imbalances in synthetic data, resulting in fairer downstream models.
- Abstract(参考訳): アクセシビリティ、コンプライアンス、倫理的なデータ不足は、医療、ファイナンス、バイオメディカルリサーチといったセンシティブな分野における人工知能(AI)の採用に重大な課題をもたらす。
さらに、プライバシー、著作権、競争に対する懸念が高まっているため、制限のない公開データセットへのアクセスはますます制限されている。
合成データが有望な代替手段として登場し、最先端の生成AI技術である拡散モデルは、高品質で多様な合成データを生成する効果的なソリューションを提供する。
本稿では,分散化されたプライベートデータセット上で拡散モデルのトレーニングを行うための,新しいフェデレーション学習フレームワークを提案する。
我々のフレームワークは、フォワード拡散プロセスにおけるパーソナライズと固有のノイズを利用して、堅牢な差分プライバシー保証を確保しつつ、高品質なサンプルを生成する。
実験の結果,本フレームワークは非協調的トレーニング手法,特に高データ不均一な環境では優れており,合成データのバイアスや不均衡を効果的に低減し,より公平な下流モデルが得られることがわかった。
関連論文リスト
- Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Second FRCSyn-onGoing: Winning Solutions and Post-Challenge Analysis to Improve Face Recognition with Synthetic Data [104.30479583607918]
第2回FRCSyn-onGoingチャレンジは、CVPR 2024で開始された第2回顔認識チャレンジ(FRCSyn)に基づいている。
我々は、顔認識における現在の課題を解決するために、個々のデータと実際のデータの組み合わせの両方で合成データの利用を検討することに重点を置いている。
論文 参考訳(メタデータ) (2024-12-02T11:12:01Z) - Addressing Heterogeneity in Federated Learning: Challenges and Solutions for a Shared Production Environment [1.2499537119440245]
フェデレートラーニング(FL)は、分散データソース間で機械学習モデルをトレーニングするための有望なアプローチとして登場した。
本稿では、FLにおけるデータ不均一性について、製造の文脈で概観する。
本研究は,これらの異種性がモデルトレーニングに与える影響について考察し,その悪影響を緩和するための現在の手法を概観する。
論文 参考訳(メタデータ) (2024-08-18T17:49:44Z) - Federated Knowledge Recycling: Privacy-Preserving Synthetic Data Sharing [5.0243930429558885]
フェデレーション・ナレッジ・リサイクリング(FedKR)は、組織間のコラボレーションを促進するために、局所的に生成された合成データを利用するクロスサイロ・フェデレーション・ラーニング・アプローチである。
FedKRは、高度なデータ生成技術と動的な集約プロセスを組み合わせることで、既存の方法よりも高いセキュリティを提供する。
論文 参考訳(メタデータ) (2024-07-30T13:56:26Z) - Best Practices and Lessons Learned on Synthetic Data [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - Phoenix: A Federated Generative Diffusion Model [6.09170287691728]
大規模な集中型データセットで生成モデルをトレーニングすることで、データのプライバシやセキュリティ、アクセシビリティといった面での課題が発生する可能性がある。
本稿では,フェデレートラーニング(FL)技術を用いて,複数のデータソースにまたがる拡散確率モデル(DDPM)の学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T01:43:09Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。