論文の概要: Quality-Adaptive Split-Federated Learning for Segmenting Medical Images
with Inaccurate Annotations
- arxiv url: http://arxiv.org/abs/2304.14976v1
- Date: Fri, 28 Apr 2023 16:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 13:23:14.212954
- Title: Quality-Adaptive Split-Federated Learning for Segmenting Medical Images
with Inaccurate Annotations
- Title(参考訳): 不正確な注釈付き医用画像分割のための品質適応スプリットフェデレーション学習
- Authors: Zahra Hafezi Kafshgari, Chamani Shiranthika, Parvaneh Saeedi, Ivan V.
Baji\'c
- Abstract要約: SplitFed LearningはFederatedとSplit Learningを組み合わせたものだ。
SplitFed Learningでは、モデルがクライアントとサーバによって協調的にトレーニングされる。
本稿では,QA-SplitFed と呼ばれる SplitFed 学習のためのデータ品質に基づく適応的平均化手法を提案する。
- 参考スコア(独自算出の注目度): 27.29876880765472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SplitFed Learning, a combination of Federated and Split Learning (FL and SL),
is one of the most recent developments in the decentralized machine learning
domain. In SplitFed learning, a model is trained by clients and a server
collaboratively. For image segmentation, labels are created at each client
independently and, therefore, are subject to clients' bias, inaccuracies, and
inconsistencies. In this paper, we propose a data quality-based adaptive
averaging strategy for SplitFed learning, called QA-SplitFed, to cope with the
variation of annotated ground truth (GT) quality over multiple clients. The
proposed method is compared against five state-of-the-art model averaging
methods on the task of learning human embryo image segmentation. Our
experiments show that all five baseline methods fail to maintain accuracy as
the number of corrupted clients increases. QA-SplitFed, however, copes
effectively with corruption as long as there is at least one uncorrupted
client.
- Abstract(参考訳): フェデレーションとスプリットラーニング(FLとSL)を組み合わせたSplitFed Learningは、分散機械学習分野における最新の発展の1つである。
分割学習では、モデルはクライアントとサーバが協調してトレーニングする。
イメージセグメンテーションでは、各クライアントでラベルが独立して作成され、クライアントのバイアス、不正確性、不整合の対象となる。
本稿では,複数のクライアント上での注釈付き基底真理(GT)品質の変動に対処するため,QA-SplitFedと呼ばれるデータ品質に基づく適応的学習手法を提案する。
提案手法は,ヒト胚のイメージセグメンテーション学習における5つの最先端モデル平均化手法と比較した。
実験の結果, 5つのベースライン法は, クライアント数の増加に伴い, 精度の維持に失敗することがわかった。
しかし、QA-SplitFedは、少なくとも1つの不正なクライアントがある限り、事実上腐敗に対処する。
関連論文リスト
- SPAM: Stochastic Proximal Point Method with Momentum Variance Reduction for Non-convex Cross-Device Federated Learning [48.072207894076556]
デバイス間のトレーニングは、クライアントの数が何十億にも達する、学習のサブフィールドです。
標準アプローチとローカルメソッドは、デバイス間の類似性と同じくらい重要な問題になりがちである。
当社の手法は,同種のデータを持つクライアントの客観的かつ実証的なメリットを必要としない,この種の最初の手法である。
論文 参考訳(メタデータ) (2024-05-30T15:07:30Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data [6.322831694506287]
分離フェデレートラーニング(IsoFed)は、半教師付きフェデレートラーニング(SSFL)に特化して設計されたラーニングスキームである。
本稿では,教師付きモデルと半教師付きモデルの簡易な平均化を回避し,SSFLに特化して設計した新しい学習手法を提案する。
特に、我々のトレーニングアプローチは、(a)ラベル付きおよびラベルなしのクライアントモデルの独立したアグリゲーションと、(b)すべてのクライアントで独立したグローバルモデルのローカルな自己教師付き事前トレーニングという2つの部分で構成されています。
論文 参考訳(メタデータ) (2023-10-28T20:41:41Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - When to Trust Aggregated Gradients: Addressing Negative Client Sampling
in Federated Learning [41.51682329500003]
本稿では,各ラウンドにおける集約勾配に対するサーバ学習率を調整するための新しい学習率適応機構を提案する。
我々は、最適なサーバ学習率に肯定的な有意義で堅牢な指標を見つけるために、理論的な推論を行う。
論文 参考訳(メタデータ) (2023-01-25T03:52:45Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Dynamic Bank Learning for Semi-supervised Federated Image Diagnosis with
Class Imbalance [65.61909544178603]
クラス不均衡半教師付きFL(imFed-Semi)の実用的かつ困難な問題について検討する。
このImFed-Semi問題は、クラス比例情報を利用してクライアントトレーニングを改善する新しい動的銀行学習方式によって解決される。
25,000個のCTスライスによる頭蓋内出血診断と10,015個の皮膚内視鏡画像による皮膚病変診断の2つの公開実世界の医療データセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-27T06:51:48Z) - Perfectly Accurate Membership Inference by a Dishonest Central Server in
Federated Learning [34.13555530204307]
フェデレートラーニングは、強力なプライバシー保証を提供すると期待されている。
本手法では, 単純だが非常に効果的なメンバーシップ推論攻撃アルゴリズムを提案する。
本手法は, 何千ものサンプルを用いたトレーニングセットにおいて, 1つのサンプルを同定する上で, 完全な精度を提供する。
論文 参考訳(メタデータ) (2022-03-30T17:01:19Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。