論文の概要: Reliability and Performance Assessment of Federated Learning on Clinical
Benchmark Data
- arxiv url: http://arxiv.org/abs/2005.11756v1
- Date: Sun, 24 May 2020 14:36:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 13:58:18.995831
- Title: Reliability and Performance Assessment of Federated Learning on Clinical
Benchmark Data
- Title(参考訳): 臨床ベンチマークデータを用いたフェデレーション学習の信頼性と性能評価
- Authors: GeunHyeong Lee, Soo-Yong Shin
- Abstract要約: フェデレートラーニング(FL)は、トレーニング期間中にデータを集中化しないため、個人のプライバシを保護することが提案されている。
本研究では,MNISTやMIMIC-IIIなどのベンチマークデータセットを用いてFLの信頼性と性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep learning have been applied in a clinical context, privacy concerns
have increased because of the collection and processing of a large amount of
personal data. Recently, federated learning (FL) has been suggested to protect
personal privacy because it does not centralize data during the training phase.
In this study, we assessed the reliability and performance of FL on benchmark
datasets including MNIST and MIMIC-III. In addition, we attempted to verify FL
on datasets that simulated a realistic clinical data distribution. We
implemented FL that uses a client and server architecture and tested client and
server FL on modified MNIST and MIMIC-III datasets. FL delivered reliable
performance on both imbalanced and extremely skewed distributions (i.e., the
difference of the number of patients and the characteristics of patients in
each hospital). Therefore, FL can be suitable to protect privacy when applied
to medical data.
- Abstract(参考訳): 深層学習が臨床に応用されるにつれて、大量の個人情報の収集と処理のためにプライバシーの懸念が高まっている。
近年,フェデレーテッド・ラーニング(FL)は,トレーニング期間中にデータを集中化しないため,個人のプライバシーを守ることが提案されている。
本研究では,MNISTやMIMIC-IIIなどのベンチマークデータセットを用いてFLの信頼性と性能を評価する。
さらに,実際の臨床データ分布をシミュレートしたデータセット上でのflの検証を試みた。
クライアントとサーバアーキテクチャを使用したFLを実装し,修正MNISTおよびMIMIC-IIIデータセット上でクライアントとサーバのFLをテストした。
FLは, 患者数と各病院の患者特性の相違について, 不均衡分布と極度歪曲分布の双方で信頼性の高い性能を示した。
したがって、FLは医療データに適用した場合のプライバシー保護に適している。
関連論文リスト
- Federated Active Learning Framework for Efficient Annotation Strategy in Skin-lesion Classification [1.8149633401257899]
フェデレートラーニング(FL)は、複数の機関がプライベートデータを共有することなく、協力的にモデルをトレーニングすることを可能にする。
アクティブラーニング(AL)は、医用画像解析におけるデータアノテーションの数を減らす上で有望な性能を示した。
本稿では,FL 下で周期的かつ対話的に AL を実行するフェデレーション AL (FedAL) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-17T08:16:28Z) - Data Valuation and Detections in Federated Learning [4.899818550820576]
フェデレートラーニング(FL)は、生データのプライバシーを維持しながら協調的なモデルトレーニングを可能にする。
このフレームワークの課題は、データの公平かつ効率的な評価であり、FLタスクで高品質なデータを提供するためにクライアントにインセンティブを与えるのに不可欠である。
本稿では,FLタスクにおける事前学習アルゴリズムを使わずに,クライアントのコントリビューションを評価し,関連するデータセットを選択するための新たなプライバシ保護手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T12:01:32Z) - Privacy-preserving patient clustering for personalized federated
learning [0.0]
Federated Learning(FL)は、複数の組織が中央サーバーとデータを共有せずにモデルをトレーニングできる機械学習フレームワークである。
これは、患者数の変動が病院間での分布の差異に大きく寄与する医療環境における問題である。
プライバシ保護のためのコミュニティベースフェデレーション機械学習(PCBFL)を提案する。
論文 参考訳(メタデータ) (2023-07-17T21:19:08Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Towards the Practical Utility of Federated Learning in the Medical
Domain [32.172151977619826]
そこで我々は,3つの代表的な医学データセットに対する実験的ベンチマークと実験的設定を提案する。
クライアント間のデータ不均一性に対処するために設計された6つのFLアルゴリズムと、2つの代表FLアルゴリズムの強度を組み合わせたハイブリッドアルゴリズムを評価する。
単純なFLアルゴリズムはより洗練されたアルゴリズムよりも優れているが、ハイブリッドアルゴリズムは優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-07T04:07:48Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Inverse Distance Aggregation for Federated Learning with Non-IID Data [48.48922416867067]
近年,フェデレートラーニング(FL)は医用画像の分野で有望なアプローチである。
FLにおける重要な問題は、特に医療シナリオにおいて、ノイズの多い分散クライアントやアウトオブディストリビューションクライアントに対して堅牢な、より正確な共有モデルを持つことである。
非平衡データと非IDデータを扱うメタ情報に基づく新しい適応重み付け手法であるIDAを提案する。
論文 参考訳(メタデータ) (2020-08-17T23:20:01Z) - FOCUS: Dealing with Label Quality Disparity in Federated Learning [25.650278226178298]
本稿では, ユビキタスシステムのためのフェデレート・オポチュニティ・コンピューティング(FOCUS)を提案する。
FOCUSは直接観察することなくクライアントローカルデータの信頼性を定量化する。
ノイズの多いラベルでクライアントを効果的に識別し、モデルパフォーマンスへの影響を低減します。
論文 参考訳(メタデータ) (2020-01-29T09:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。