論文の概要: Federated Learning for Cross-Domain Data Privacy: A Distributed Approach to Secure Collaboration
- arxiv url: http://arxiv.org/abs/2504.00282v1
- Date: Mon, 31 Mar 2025 23:04:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:31.582866
- Title: Federated Learning for Cross-Domain Data Privacy: A Distributed Approach to Secure Collaboration
- Title(参考訳): クロスドメインデータプライバシのためのフェデレーション学習 - セキュアなコラボレーションへの分散アプローチ
- Authors: Yiwei Zhang, Jie Liu, Jiawei Wang, Lu Dai, Fan Guo, Guohui Cai,
- Abstract要約: 本稿では,フェデレート学習に基づくデータプライバシ保護フレームワークを提案する。
分散学習によるデータプライバシの確保を前提として、効果的なクロスドメインデータコラボレーションを実現することを目的としている。
- 参考スコア(独自算出の注目度): 13.206587690640147
- License:
- Abstract: This paper proposes a data privacy protection framework based on federated learning, which aims to realize effective cross-domain data collaboration under the premise of ensuring data privacy through distributed learning. Federated learning greatly reduces the risk of privacy breaches by training the model locally on each client and sharing only model parameters rather than raw data. The experiment verifies the high efficiency and privacy protection ability of federated learning under different data sources through the simulation of medical, financial, and user data. The results show that federated learning can not only maintain high model performance in a multi-domain data environment but also ensure effective protection of data privacy. The research in this paper provides a new technical path for cross-domain data collaboration and promotes the application of large-scale data analysis and machine learning while protecting privacy.
- Abstract(参考訳): 本稿では,分散学習によるデータプライバシの確保を前提として,効果的なクロスドメインデータコラボレーションを実現することを目的とした,フェデレーション学習に基づくデータプライバシ保護フレームワークを提案する。
フェデレーション学習は、各クライアント上でモデルをローカルにトレーニングし、生データではなくモデルパラメータのみを共有することによって、プライバシ侵害のリスクを大幅に低減します。
この実験は、医療、財務、ユーザデータのシミュレーションにより、異なるデータソース下でのフェデレーション学習の高効率性とプライバシ保護能力を検証する。
その結果,フェデレート学習はマルチドメインデータ環境において高いモデル性能を維持するだけでなく,データプライバシの効果的な保護も確保できることがわかった。
本稿では、クロスドメインデータコラボレーションのための新しい技術パスを提供し、プライバシ保護を図りながら、大規模データ分析と機械学習の適用を促進する。
関連論文リスト
- Privacy-Preserving Dataset Combination [1.9168342959190845]
我々はSecureKLについて紹介する。SecureKLはプライバシー保護のためのフレームワークで、機密情報を漏らさずに有益なデータパートナーシップを特定できる。
実世界の病院データを用いた実験では、SecureKLは、モデルパフォーマンスを改善する有益なデータパートナーシップをうまく識別する。
これらの結果は、プライバシ保護データコラボレーションが、ハイテイクドメインにおける機械学習アプリケーションを前進させる可能性を示している。
論文 参考訳(メタデータ) (2025-02-09T03:54:17Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Active Membership Inference Attack under Local Differential Privacy in
Federated Learning [18.017082794703555]
フェデレートラーニング(FL)は元々、データプライバシ保護を備えたクライアント間での協調学習のフレームワークとして見なされていた。
本稿では,FLにおける不適切なサーバによって実行される新たなアクティブメンバシップ推論(AMI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-24T15:21:39Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。