論文の概要: Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions
- arxiv url: http://arxiv.org/abs/2103.07491v1
- Date: Fri, 12 Mar 2021 19:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:21:42.005136
- Title: Private Cross-Silo Federated Learning for Extracting Vaccine Adverse
Event Mentions
- Title(参考訳): ワクチンアドバースイベントメンション抽出のためのプライベートクロスサイロフェデレーション学習
- Authors: Pallika Kanani, Virendra J. Marathe, Daniel Peterson, Rave Harpaz,
Steve Bright
- Abstract要約: Federated Learning(FL)は、ユーザーが物理的にデータを共有せずにグローバルモデルを共同トレーニングするためのゴト分散トレーニングパラダイムです。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
- 参考スコア(独自算出の注目度): 0.7349727826230862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is quickly becoming a goto distributed training
paradigm for users to jointly train a global model without physically sharing
their data. Users can indirectly contribute to, and directly benefit from a
much larger aggregate data corpus used to train the global model. However,
literature on successful application of FL in real-world problem settings is
somewhat sparse. In this paper, we describe our experience applying a FL based
solution to the Named Entity Recognition (NER) task for an adverse event
detection application in the context of mass scale vaccination programs. We
present a comprehensive empirical analysis of various dimensions of benefits
gained with FL based training. Furthermore, we investigate effects of tighter
Differential Privacy (DP) constraints in highly sensitive settings where
federation users must enforce Local DP to ensure strict privacy guarantees. We
show that local DP can severely cripple the global model's prediction accuracy,
thus dis-incentivizing users from participating in the federation. In response,
we demonstrate how recent innovation on personalization methods can help
significantly recover the lost accuracy. We focus our analysis on the Federated
Fine-Tuning algorithm, FedFT, and prove that it is not PAC Identifiable, thus
making it even more attractive for FL-based training.
- Abstract(参考訳): フェデレーションラーニング(FL)は、データを物理的に共有することなく、グローバルモデルを共同でトレーニングするためのゴト分散トレーニングパラダイムになりつつある。
ユーザーは間接的にコントリビュートし、グローバルモデルのトレーニングに使用されるはるかに大きな集計データコーパスから直接利益を得ることができます。
しかし、現実世界の問題設定におけるFLの応用の成功に関する文献はやや乏しい。
本稿では,大規模ワクチン接種プログラムの文脈における有害事象検出アプリケーションに対して,名前付きエンティティ認識(NER)タスクにFLベースのソリューションを適用した経験について述べる。
FLベースのトレーニングで得られたさまざまな利点の次元の包括的な実証的分析を紹介します。
さらに、より密接な差分プライバシー(DP)制約の影響を、フェデレーションユーザーが厳重なプライバシー保証を確保するためにローカルDPを強制しなければならない高感度設定で調査します。
ローカルDPは,グローバルモデルの予測精度を著しく損なう可能性を示し,ユーザによるフェデレーションへの参加を阻害する。
これに対し,近年のパーソナライズ手法の革新が,失われた精度の回復に有効であることを実証した。
私たちはFederated Fine-Tuningアルゴリズム、FedFTに分析を集中し、PACIdentifiableではないことを証明し、FLベースのトレーニングにさらに魅力的にします。
関連論文リスト
- Privacy-Preserving Federated Learning via Dataset Distillation [9.60829979241686]
フェデレートラーニング(FL)では、生のデータの代わりに知識を共有することで、モデルのトレーニングを高精度に行うことができる。
トレーニング中、ユーザーは共有されている知識をコントロールできなくなり、データプライバシの深刻な問題を引き起こす。
FLトレーニングに最小特権(PoLP)の原則を導入することを目的としたFLiPを提案する。
論文 参考訳(メタデータ) (2024-10-25T13:20:40Z) - FedQUIT: On-Device Federated Unlearning via a Quasi-Competent Virtual Teacher [4.291269657919828]
フェデレートラーニング(FL)は、機械学習モデルが協調的にトレーニングされた場合、個人のデータに対するより良いプライバシー保証を約束する。
FL参加者がその参加するFLフレームワークから離脱する権利を行使する場合、FLソリューションはすべての必要なステップを実行するべきである。
本稿では,FedQUITを提案する。FedQUITは知識蒸留を用いて,FLグローバルモデルからの忘れたデータの寄与を探索する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2024-08-14T14:36:28Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Sparse Federated Learning with Hierarchical Personalized Models [24.763028713043468]
フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
論文 参考訳(メタデータ) (2022-03-25T09:06:42Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。