論文の概要: Vicinal Feature Statistics Augmentation for Federated 3D Medical Volume
Segmentation
- arxiv url: http://arxiv.org/abs/2310.15371v1
- Date: Mon, 23 Oct 2023 21:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 21:29:59.232623
- Title: Vicinal Feature Statistics Augmentation for Federated 3D Medical Volume
Segmentation
- Title(参考訳): 3次元医用ボリュームセグメンテーションにおけるビシナル特徴量の増大
- Authors: Yongsong Huang, Wanqing Xie, Mingzhen Li, Mingmei Cheng, Jinzhou Wu,
Weixiao Wang, Jane You, Xiaofeng Liu
- Abstract要約: FL(Federated Learning)は、複数のクライアント医療機関が、プライバシー保護を備えたディープラーニング(DL)モデルを共同でトレーニングすることを可能にする。
しかし、FLの性能は、小さな機関におけるラベル付きデータの限られた可用性と、機関間での不均一な(すなわち非i.d.)データ分散によって制限される。
我々は,局所的な特徴シフトを効果的に緩和し,プライバシーに配慮したFLセグメンテーションのための協調トレーニングを容易にするために,ビジナルな特徴レベルデータ拡張手法を開発した。
- 参考スコア(独自算出の注目度): 17.096806029281385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables multiple client medical institutes
collaboratively train a deep learning (DL) model with privacy protection.
However, the performance of FL can be constrained by the limited availability
of labeled data in small institutes and the heterogeneous (i.e., non-i.i.d.)
data distribution across institutes. Though data augmentation has been a proven
technique to boost the generalization capabilities of conventional centralized
DL as a "free lunch", its application in FL is largely underexplored. Notably,
constrained by costly labeling, 3D medical segmentation generally relies on
data augmentation. In this work, we aim to develop a vicinal feature-level data
augmentation (VFDA) scheme to efficiently alleviate the local feature shift and
facilitate collaborative training for privacy-aware FL segmentation. We take
both the inner- and inter-institute divergence into consideration, without the
need for cross-institute transfer of raw data or their mixup. Specifically, we
exploit the batch-wise feature statistics (e.g., mean and standard deviation)
in each institute to abstractly represent the discrepancy of data, and model
each feature statistic probabilistically via a Gaussian prototype, with the
mean corresponding to the original statistic and the variance quantifying the
augmentation scope. From the vicinal risk minimization perspective, novel
feature statistics can be drawn from the Gaussian distribution to fulfill
augmentation. The variance is explicitly derived by the data bias in each
individual institute and the underlying feature statistics characterized by all
participating institutes. The added-on VFDA consistently yielded marked
improvements over six advanced FL methods on both 3D brain tumor and cardiac
segmentation.
- Abstract(参考訳): FL(Federated Learning)は、複数のクライアント医療機関が、プライバシー保護を備えたディープラーニング(DL)モデルを共同でトレーニングすることを可能にする。
しかしながら、flの性能は、小さな研究所におけるラベル付きデータの可用性の制限と、研究所間での異種(非i.i.d.)データ分散によって制限される。
データ拡張は、従来の集中型dlを「フリーランチ」として一般化する技術として実証されているが、flでの応用はほとんど未検討である。
特に、高価なラベル付けによって制約される3D医療セグメントは、一般的にデータ拡張に依存します。
本研究では,局所的な特徴シフトを効果的に緩和し,プライバシを意識したFLセグメンテーションのための協調トレーニングを容易にするために,VFDA(vicinal feature-level data augmentation)方式を開発することを目的とする。
我々は、生データの相互転送や混成を必要とせず、内部と内部のばらつきを考慮に入れている。
具体的には、各機関におけるバッチワイド特徴統計(平均偏差や標準偏差など)を利用してデータの差を抽象的に表現し、各特徴統計をガウスプロトタイプを用いて確率的にモデル化する。
ビクタナルリスク最小化の観点からは、新しい特徴統計はガウス分布から引き出されて補足を満たすことができる。
ばらつきは、個々の機関のデータバイアスと、すべての機関が特徴とする基礎となる特徴統計によって明確に導かれる。
vfdaは3d脳腫瘍と心分画の両方において6つの先進的なfl法を一貫して改善した。
関連論文リスト
- Anatomical 3D Style Transfer Enabling Efficient Federated Learning with Extremely Low Communication Costs [1.3654846342364306]
本稿では,多臓器分割作業に3Dスタイル転送を利用する新しいフェデレートラーニング(FL)手法を提案する。
これらのクラスターに基づいてスタイルを混ぜることで、解剖学的情報を保存し、モデルに組織内多様性を学習させる。
実験により,通信コストが極めて制限された場合においても,本手法は精度を維持可能であることが示された。
論文 参考訳(メタデータ) (2024-10-26T07:00:40Z) - FedGS: Federated Gradient Scaling for Heterogeneous Medical Image Segmentation [0.4499833362998489]
そこで本研究では,FedGSという新しいFLアグリゲーション手法を提案する。
FedGSは、特に小さな病変に対して、PolypGenとLiTSデータセット間で、FedAvgよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-21T15:26:21Z) - A Federated Learning-Friendly Approach for Parameter-Efficient Fine-Tuning of SAM in 3D Segmentation [5.011091042850546]
医用画像解析に基礎モデルを適用するには、かなりの量のデータでそれらを微調整する必要がある。
このような微調整のためのタスク固有の医療データを中央で収集することは、多くのプライバシー上の懸念を引き起こす。
フェデレーテッド・ラーニング(FL)は、プライベートな分散データをトレーニングするための効果的な手段を提供するが、大規模な基盤モデルをフェデレーテッドする際の通信コストは、すぐに重大なボトルネックとなる可能性がある。
論文 参考訳(メタデータ) (2024-07-31T16:48:06Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - StatAvg: Mitigating Data Heterogeneity in Federated Learning for Intrusion Detection Systems [22.259297167311964]
フェデレートラーニング(FL)は、デバイスが生データを第三者に公開することなく、共同で機械学習(ML)またはディープラーニング(DL)モデルを構築することができる分散学習技術である。
プライバシー保護の性質から、FLはサイバーセキュリティの領域内で侵入検知システム(IDS)を構築するために広く注目を集めている。
FLにおけるローカルクライアントのデータ間で,非独立かつ同一の(非ID)分散機能を緩和する,統計的平均化(StatAvg)と呼ばれる有効な手法を提案する。
論文 参考訳(メタデータ) (2024-05-20T14:41:59Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - A Simple Data Augmentation for Feature Distribution Skewed Federated
Learning [12.636154758643757]
フェデレートラーニング(FL)は、複数のクライアント間の協調学習を分散的に支援し、プライバシ保護を保証する。
本稿では,現実世界のアプリケーションに広く普及しているFLシナリオの特徴分布に着目した。
特徴分布スキュードFLの簡易かつ極めて効果的なデータ拡張法であるFedRDNを提案する。
論文 参考訳(メタデータ) (2023-06-14T05:46:52Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。