論文の概要: Federated Breast Cancer Detection Enhanced by Synthetic Ultrasound Image Augmentation
- arxiv url: http://arxiv.org/abs/2506.23334v1
- Date: Sun, 29 Jun 2025 17:05:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.834216
- Title: Federated Breast Cancer Detection Enhanced by Synthetic Ultrasound Image Augmentation
- Title(参考訳): 合成超音波画像増強による乳がんの合併検出
- Authors: Hongyi Pan, Ziliang Hong, Gorkem Durak, Ziyue Xu, Ulas Bagci,
- Abstract要約: 統合学習(FL)は、センシティブな医療データを交換することなく、機関間でディープラーニングモデルを協調的に訓練するための、有望なパラダイムとして登場した。
本稿では, 超音波画像を用いた乳がん診断のための統合トレーニングプロセスに, 合成画像共有を統合した生成AIベースのデータ拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.586778724545972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm for collaboratively training deep learning models across institutions without exchanging sensitive medical data. However, its effectiveness is often hindered by limited data availability and non-independent, identically distributed data across participating clients, which can degrade model performance and generalization. To address these challenges, we propose a generative AI based data augmentation framework that integrates synthetic image sharing into the federated training process for breast cancer diagnosis via ultrasound images. Specifically, we train two simple class-specific Deep Convolutional Generative Adversarial Networks: one for benign and one for malignant lesions. We then simulate a realistic FL setting using three publicly available breast ultrasound image datasets: BUSI, BUS-BRA, and UDIAT. FedAvg and FedProx are adopted as baseline FL algorithms. Experimental results show that incorporating a suitable number of synthetic images improved the average AUC from 0.9206 to 0.9237 for FedAvg and from 0.9429 to 0.9538 for FedProx. We also note that excessive use of synthetic data reduced performance, underscoring the importance of maintaining a balanced ratio of real and synthetic samples. Our findings highlight the potential of generative AI based data augmentation to enhance FL results in the breast ultrasound image classification task.
- Abstract(参考訳): 統合学習(FL)は、センシティブな医療データを交換することなく、機関間でディープラーニングモデルを協調的に訓練するための、有望なパラダイムとして登場した。
しかし、その有効性はしばしば、限られたデータ可用性と非独立で同一の分散データによって妨げられ、モデルの性能と一般化を低下させる。
これらの課題に対処するために、超音波画像を用いた乳がん診断のための統合トレーニングプロセスに合成画像共有を統合する、生成型AIベースのデータ拡張フレームワークを提案する。
具体的には、2つの単純なクラス固有のDeep Convolutional Generative Adversarial Networksを訓練する。
次に、BUSI、BUS-BRA、UDIATの3つの乳房超音波画像データセットを用いて、現実的なFL設定をシミュレートする。
FedAvgとFedProxはベースラインFLアルゴリズムとして採用されている。
実験の結果, 合成画像の適切な枚数を組み込むことで, AUCの平均値は0.9206から0.9237に改善し, FedAvgは0.9429から0.9538に改善した。
また, 合成データの過剰使用が性能を低下させ, 実データと合成データのバランスの取れた比率を維持することの重要性が強調された。
胸部超音波画像分類タスクにおいて, FL結果を改善するため, 生成AIに基づくデータ拡張の可能性について検討した。
関連論文リスト
- Improving Heart Rejection Detection in XPCI Images Using Synthetic Data Augmentation [0.0]
StyleGANは利用可能な3Rバイオプシーパッチで訓練され、その後、1万のリアルな合成画像を生成するために使用された。
これらは、ResNet-18分類器をバイナリーリジェクション分類のために訓練するための様々な構成において、レジェクション無しのサンプルである実際の0Rサンプルと組み合わせられた。
その結果, 実検体と組み合わせて使用する場合, 合成データにより分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-26T09:26:36Z) - The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound [60.80780313225093]
本研究は, 肺超音波の自己教師あり学習におけるデータ拡張と前処理方略の影響を系統的に検討した。
画像領域に共通して使用されるベースラインパイプライン、超音波用に設計された新しいセマンティック保存パイプライン、両方のパイプラインから最も効果的な変換の蒸留セットの3つのデータ拡張パイプラインが評価された。
論文 参考訳(メタデータ) (2025-04-10T16:26:47Z) - Ultrasound Image Synthesis Using Generative AI for Lung Ultrasound Detection [4.446946432318714]
DiffUltraは,現実的な肺超音波画像(LUS)を広範囲の病変で合成できる,最初の生成AI技術である。
我々は、実際の患者データから病変の構造的および位置的特性を捉え、画像合成を誘導するLesion-Aatomy Bankによる生成AIを条件とする。
DiffUltraは、実際の患者データにのみ訓練されたモデルと比較して、APの5.6%の強化検出を改善することを実証した。
論文 参考訳(メタデータ) (2025-01-10T21:32:50Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - WATUNet: A Deep Neural Network for Segmentation of Volumetric Sweep
Imaging Ultrasound [1.2903292694072621]
ボリューム・スイープ・イメージング(VSI)は、訓練を受けていないオペレーターが高品質な超音波画像をキャプチャできる革新的な手法である。
本稿ではWavelet_Attention_UNet(WATUNet)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルでは、簡単な接続ではなく、ウェーブレットゲート(WG)とアテンションゲート(AG)をエンコーダとデコーダの間に組み込んで、上記の制限を克服する。
論文 参考訳(メタデータ) (2023-11-17T20:32:37Z) - UAV-Sim: NeRF-based Synthetic Data Generation for UAV-based Perception [62.71374902455154]
ニューラルレンダリングの最近の進歩を利用して、静的および動的ノベルビューUAVベースの画像レンダリングを改善する。
本研究では,主に実データと合成データのハイブリッドセットに基づいて最先端検出モデルが最適化された場合,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-10-25T00:20:37Z) - DiffBoost: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model [3.890243179348094]
医療応用のための堅牢で成功したディープラーニングモデルを開発するためには、大規模で大きな変動のある高品質なデータが不可欠である。
本稿では,DiffBoostと呼ばれる医用画像合成のための制御可能な拡散モデルを提案する。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。