論文の概要: Federated-Continual Dynamic Segmentation of Histopathology guided by Barlow Continuity
- arxiv url: http://arxiv.org/abs/2501.04588v1
- Date: Wed, 08 Jan 2025 16:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:56:37.345014
- Title: Federated-Continual Dynamic Segmentation of Histopathology guided by Barlow Continuity
- Title(参考訳): バロー連続性によって誘導される病理組織学の連続的ダイナミックセグメンテーション
- Authors: Niklas Babendererde, Haozhe Zhu, Moritz Fuchs, Jonathan Stieber, Anirban Mukhopadhyay,
- Abstract要約: 本稿では,クライアントドリフトとカタストロフィックフォーッティングを共同で緩和する手法を提案する。
BCSS と Semicol の病理組織学的データセットについて検討した。
- 参考スコア(独自算出の注目度): 1.0074894923170512
- License:
- Abstract: Federated- and Continual Learning have been established as approaches to enable privacy-aware learning on continuously changing data, as required for deploying AI systems in histopathology images. However, data shifts can occur in a dynamic world, spatially between institutions and temporally, due to changing data over time. This leads to two issues: Client Drift, where the central model degrades from aggregating data from clients trained on shifted data, and Catastrophic Forgetting, from temporal shifts such as changes in patient populations. Both tend to degrade the model's performance of previously seen data or spatially distributed training. Despite both problems arising from the same underlying problem of data shifts, existing research addresses them only individually. In this work, we introduce a method that can jointly alleviate Client Drift and Catastrophic Forgetting by using our proposed Dynamic Barlow Continuity that evaluates client updates on a public reference dataset and uses this to guide the training process to a spatially and temporally shift-invariant model. We evaluate our approach on the histopathology datasets BCSS and Semicol and prove our method to be highly effective by jointly improving the dice score as much as from 15.8% to 71.6% in Client Drift and from 42.5% to 62.8% in Catastrophic Forgetting. This enables Dynamic Learning by establishing spatio-temporal shift-invariance.
- Abstract(参考訳): フェデレーションと継続学習は、病理画像にAIシステムを展開するために必要なように、データの継続的な変更に対してプライバシを意識した学習を可能にするアプローチとして確立されている。
しかし、データシフトは、時間とともにデータが変化するため、ダイナミックな世界、制度間の空間的、時間的に起こることがある。
これは2つの問題に繋がる: クライアントドリフト(Client Drift) — 中心モデルは、シフトしたデータに基づいてトレーニングされたクライアントからのデータ収集から分解される。
どちらも、以前に見られたデータや空間的に分散したトレーニングのパフォーマンスを低下させる傾向がある。
どちらも、データシフトの根底にある同じ問題から生じるものだが、既存の研究は個々の問題にのみ対処している。
本研究では,公共参照データセット上でクライアントの更新を評価する動的バーロー継続性を用いて,クライアントのドリフトとカタストロフィック・フォーミングを共同で緩和し,これを空間的かつ時間的に変化しないモデルに誘導する手法を提案する。
我々は,BCSSとセミコールの病理組織学的データセットに対するアプローチを評価し,クライアントドリフトの15.8%から71.6%,破滅性フォーミングの42.5%から62.8%まで,ダイススコアを共同で改善することにより,高い有効性を示す。
これにより、時空間シフト不変性を確立することで動的学習が可能になる。
関連論文リスト
- Federated Learning Clients Clustering with Adaptation to Data Drifts [27.974937897248132]
フェデレートラーニング(FL)は、エッジデバイス間のディープラーニングモデルのトレーニングを可能にする。
本稿では,データドリフトを低オーバーヘッドで迅速に処理するクラスタリングFLフレームワークであるFieldingを紹介する。
評価の結果,Fielding はモデルの最終精度を 1.9%-5.9% 向上し,目標精度 1.16x-2.61x に到達した。
論文 参考訳(メタデータ) (2024-11-03T14:13:38Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - FedAgg: Adaptive Federated Learning with Aggregated Gradients [1.5653612447564105]
我々はFedAggと呼ばれる適応型FEDerated Learningアルゴリズムを提案し、局所モデルパラメータと平均モデルパラメータのばらつきを緩和し、高速モデル収束率を得る。
IIDおよび非IIDデータセット下でのモデル性能の向上と収束速度の促進を目的として,本手法が既存のFL戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-28T08:07:28Z) - Spatial-Temporal Federated Learning for Lifelong Person Re-identification on Distributed Edges [8.15821314623415]
FedSTILは、異なるエッジクライアントから学んだ知識間の空間的時間的相関を抽出することを目的としている。
5つの実世界のデータセットの混合実験により、我々の手法はRan-1精度で4%近く向上していることが示された。
論文 参考訳(メタデータ) (2022-07-24T15:13:45Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Tackling Dynamics in Federated Incremental Learning with Variational
Embedding Rehearsal [27.64806509651952]
FLシナリオにおける漸進的な学習プロセスに対処する新しいアルゴリズムを提案する。
まず、クライアントデータのプライバシーを確保するために、ディープ変分埋め込み(Deep Variational Embeddings)を提案する。
第2に,学習した知識をモデルでリハーサルするサーバサイドトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-10-19T02:26:35Z) - Combating Temporal Drift in Crisis with Adapted Embeddings [58.4558720264897]
言語の使用は時間とともに変化し、NLPシステムの有効性に影響を与える可能性がある。
本研究は,危機時の言論変化に対応する方法を検討する。
論文 参考訳(メタデータ) (2021-04-17T13:11:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。