論文の概要: Improving Performance of Private Federated Models in Medical Image
Analysis
- arxiv url: http://arxiv.org/abs/2304.05127v1
- Date: Tue, 11 Apr 2023 10:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 15:22:20.039275
- Title: Improving Performance of Private Federated Models in Medical Image
Analysis
- Title(参考訳): 医用画像解析におけるプライベートフェデレーションモデルの性能向上
- Authors: Xiangjian Hou, Sarit Khirirat, Mohammad Yaqub, and Samuel Horvath
- Abstract要約: Federated Learning(FL)は、データを集中せずにトレーニングできる分散機械学習(ML)アプローチである。
それに加えて、FLは医療アプリケーションで使用されるMLモデルの質を向上させることができる。
- 参考スコア(独自算出の注目度): 3.4211233095907945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) is a distributed machine learning (ML) approach that
allows data to be trained without being centralized. This approach is
particularly beneficial for medical applications because it addresses some key
challenges associated with medical data, such as privacy, security, and data
ownership. On top of that, FL can improve the quality of ML models used in
medical applications. Medical data is often diverse and can vary significantly
depending on the patient population, making it challenging to develop ML models
that are accurate and generalizable. FL allows medical data to be used from
multiple sources, which can help to improve the quality and generalizability of
ML models. Differential privacy (DP) is a go-to algorithmic tool to make this
process secure and private. In this work, we show that the model performance
can be further improved by employing local steps, a popular approach to
improving the communication efficiency of FL, and tuning the number of
communication rounds. Concretely, given the privacy budget, we show an optimal
number of local steps and communications rounds. We provide theoretical
motivations further corroborated with experimental evaluations on real-world
medical imaging tasks.
- Abstract(参考訳): Federated Learning(FL)は、データを集中せずにトレーニングできる分散機械学習(ML)アプローチである。
このアプローチは、プライバシ、セキュリティ、データオーナシップなど、医療データに関連するいくつかの重要な課題に対処するため、医療アプリケーションにとって特に有用である。
さらにflは、医療アプリケーションで使用されるmlモデルの品質を向上させることができる。
医療データは多種多様であり、患者数によって大きく異なる場合があるため、正確で一般化可能なMLモデルの開発は困難である。
FLは、複数のソースから医療データを使用することで、MLモデルの品質と一般化性を改善するのに役立つ。
differential privacy (dp)は、このプロセスを安全かつプライベートにするためのアルゴリズムツールである。
本研究では,flの通信効率向上のための一般的なアプローチであるローカルステップを採用し,通信ラウンド数をチューニングすることで,モデルの性能をさらに向上できることを示す。
具体的には、プライバシー予算を考慮すると、ローカルなステップやコミュニケーションラウンドの最適な数を示す。
本研究は, 実世界医用画像の課題に関する実験評価とさらに一致した理論的動機を与える。
関連論文リスト
- CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Universally Harmonizing Differential Privacy Mechanisms for Federated Learning: Boosting Accuracy and Convergence [22.946928984205588]
ディファレンシャル・プライベート・フェデレーション・ラーニング(DP-FL)は協調モデルトレーニングにおいて有望な手法である。
本稿では,任意のランダム化機構を普遍的に調和させる最初のDP-FLフレームワーク(UDP-FL)を提案する。
その結果,UDP-FLは異なる推論攻撃に対して強い耐性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-20T00:11:59Z) - QMGeo: Differentially Private Federated Learning via Stochastic Quantization with Mixed Truncated Geometric Distribution [1.565361244756411]
Federated Learning(FL)は、複数のユーザがグローバル機械学習(ML)モデルを共同でトレーニングできるフレームワークである。
このような分散フレームワークの重要な動機の1つは、ユーザにプライバシ保証を提供することである。
本稿では,DPを提供するのに必要なランダム性を導入するために,混合幾何分布を用いた新しい量子化法を提案する。
論文 参考訳(メタデータ) (2023-12-10T04:44:53Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。