論文の概要: Anonymizing Data for Privacy-Preserving Federated Learning
- arxiv url: http://arxiv.org/abs/2002.09096v1
- Date: Fri, 21 Feb 2020 02:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:51:20.145703
- Title: Anonymizing Data for Privacy-Preserving Federated Learning
- Title(参考訳): プライバシー保護フェデレーション学習のための匿名化
- Authors: Olivia Choudhury, Aris Gkoulalas-Divanis, Theodoros Salonidis, Issa
Sylla, Yoonyoung Park, Grace Hsu, Amar Das
- Abstract要約: 我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
- 参考スコア(独自算出の注目度): 3.3673553810697827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables training a global machine learning model from data
distributed across multiple sites, without having to move the data. This is
particularly relevant in healthcare applications, where data is rife with
personal, highly-sensitive information, and data analysis methods must provably
comply with regulatory guidelines. Although federated learning prevents sharing
raw data, it is still possible to launch privacy attacks on the model
parameters that are exposed during the training process, or on the generated
machine learning model. In this paper, we propose the first syntactic approach
for offering privacy in the context of federated learning. Unlike the
state-of-the-art differential privacy-based frameworks, our approach aims to
maximize utility or model performance, while supporting a defensible level of
privacy, as demanded by GDPR and HIPAA. We perform a comprehensive empirical
evaluation on two important problems in the healthcare domain, using real-world
electronic health data of 1 million patients. The results demonstrate the
effectiveness of our approach in achieving high model performance, while
offering the desired level of privacy. Through comparative studies, we also
show that, for varying datasets, experimental setups, and privacy budgets, our
approach offers higher model performance than differential privacy-based
techniques in federated learning.
- Abstract(参考訳): フェデレーション学習は、データを移動することなく、複数のサイトに分散したデータからグローバルな機械学習モデルをトレーニング可能にする。
これは、データが個人的かつ高感度な情報と結びついており、データ分析手法が規制ガイドラインを確実に遵守しなければならない医療アプリケーションに特に関係している。
フェデレーション学習は生データの共有を阻害するが、トレーニングプロセス中に露出したモデルパラメータや生成された機械学習モデルに対して、プライバシ攻撃を開始することが可能である。
本稿では,連合学習の文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
我々のアプローチは、最先端の差分プライバシーベースのフレームワークとは異なり、GDPRやHIPAAが要求しているように、保護可能なプライバシーレベルをサポートしながら、実用性やモデルパフォーマンスを最大化することを目的としています。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
この結果から,要求されるプライバシーレベルを提供しながら,高いモデル性能を実現するためのアプローチの有効性が示された。
比較研究を通じて,様々なデータセット,実験的なセットアップ,およびプライバシ予算に対して,フェデレーション学習における差分プライバシーベースの手法よりも高いモデルパフォーマンスを提供することを示す。
関連論文リスト
- Controllable Synthetic Clinical Note Generation with Privacy Guarantees [7.1366477372157995]
本稿では、PHI(Personal Health Information)を含む「クローン」データセットに対する新しい手法を提案する。
我々のアプローチは、クローン化されたデータセットが患者のプライバシを損なうことなく、元のデータの本質的な特性と有用性を保っていることを保証します。
クローン化されたデータセットでトレーニングされた機械学習モデルの性能を評価するために,ユーティリティテストを実施している。
論文 参考訳(メタデータ) (2024-09-12T07:38:34Z) - Improving the Classification Effect of Clinical Images of Diseases for Multi-Source Privacy Protection [0.0]
医療分野におけるプライバシーデータ保護は、データ共有に課題をもたらす。
従来の集中型トレーニング手法は、プライバシー保護原則に違反しているため、適用が難しい。
データベクトルに基づく医療プライバシデータトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-23T12:52:24Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Exploratory Analysis of Federated Learning Methods with Differential
Privacy on MIMIC-III [0.7349727826230862]
フェデレートされた学習方法は、プライバシに敏感なデータセット上で機械学習モデルをトレーニングする可能性を提供する。
オープンソースMIMIC-IIIデータセット上でのトレーニングモデルにおいて,異なるフェデレーションおよび差分プライバシー手法が与える影響の評価を行う。
論文 参考訳(メタデータ) (2023-02-08T17:27:44Z) - Differentially Private Language Models for Secure Data Sharing [19.918137395199224]
本稿では,生成言語モデルを個別に学習し,その結果を抽出する方法について述べる。
自然言語のプロンプトと新しいプロンプトミスマッチの損失を用いることで、高度に正確で流動的なテキストデータセットを作成できる。
我々は、我々の合成データセットが元のデータから情報を漏らさず、言語質が高いことを示す徹底的な実験を行う。
論文 参考訳(メタデータ) (2022-10-25T11:12:56Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - GS-WGAN: A Gradient-Sanitized Approach for Learning Differentially
Private Generators [74.16405337436213]
我々は、GS-WGAN(Gradient-sanitized Wasserstein Generative Adrial Networks)を提案する。
GS-WGANは、厳格なプライバシー保証を備えた機密データの衛生的な形式での公開を可能にする。
このアプローチは、複数のメトリクスにわたる最先端のアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2020-06-15T10:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。