論文の概要: HyFormer-Net: A Synergistic CNN-Transformer with Interpretable Multi-Scale Fusion for Breast Lesion Segmentation and Classification in Ultrasound Images
- arxiv url: http://arxiv.org/abs/2511.01013v1
- Date: Sun, 02 Nov 2025 17:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.026573
- Title: HyFormer-Net: A Synergistic CNN-Transformer with Interpretable Multi-Scale Fusion for Breast Lesion Segmentation and Classification in Ultrasound Images
- Title(参考訳): HyFormer-Net:乳房病変の分割と超音波画像の分類のための解釈可能な多スケール核融合を用いた相乗的CNN変換器
- Authors: Mohammad Amanour Rahman,
- Abstract要約: HyFormer-Netは、本質的に解釈可能な同時セグメンテーションと分類のためのハイブリッドCNN変換器である。
BUSIデータセットでは、HyFormer-NetがDice Score 0.761 +/-0.072と精度93.2%を獲得し、U-Net、Attention U-Net、TransUNetを上回っている。
乳房超音波におけるハイブリッドCNN変換器のクロスデータセット一般化研究を初めて行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: B-mode ultrasound for breast cancer diagnosis faces challenges: speckle, operator dependency, and indistinct boundaries. Existing deep learning suffers from single-task learning, architectural constraints (CNNs lack global context, Transformers local features), and black-box decision-making. These gaps hinder clinical adoption. We propose HyFormer-Net, a hybrid CNN-Transformer for simultaneous segmentation and classification with intrinsic interpretability. Its dual-branch encoder integrates EfficientNet-B3 and Swin Transformer via multi-scale hierarchical fusion blocks. An attention-gated decoder provides precision and explainability. We introduce dual-pipeline interpretability: (1) intrinsic attention validation with quantitative IoU verification (mean: 0.86), and (2) Grad-CAM for classification reasoning. On the BUSI dataset, HyFormer-Net achieves Dice Score 0.761 +/- 0.072 and accuracy 93.2%, outperforming U-Net, Attention U-Net, and TransUNet. Malignant Recall of 92.1 +/- 2.2% ensures minimal false negatives. Ensemble modeling yields exceptional Dice 90.2%, accuracy 99.5%, and perfect 100% Malignant Recall, eliminating false negatives. Ablation studies confirm multi-scale fusion contributes +16.8% Dice and attention gates add +5.9%. Crucially, we conduct the first cross-dataset generalization study for hybrid CNN-Transformers in breast ultrasound. Zero-shot transfer fails (Dice: 0.058), confirming domain shift. However, progressive fine-tuning with only 10% target-domain data (68 images) recovers 92.5% performance. With 50% data, our model achieves 77.3% Dice, exceeding source-domain performance (76.1%) and demonstrating true generalization.
- Abstract(参考訳): 乳がん診断のためのBモード超音波は、スペックル、オペレーター依存、不特定境界という課題に直面している。
既存のディープラーニングは、シングルタスクの学習、アーキテクチャ上の制約(CNNにはグローバルなコンテキストがない、トランスフォーマーのローカル機能)、ブラックボックスの意思決定に悩まされている。
これらのギャップは臨床導入を妨げる。
本稿では,HyFormer-NetというハイブリッドCNN変換器を提案する。
デュアルブランチエンコーダはEfficientNet-B3とSwin Transformerをマルチスケール階層型核融合ブロックを介して統合する。
アテンションゲートデコーダは精度と説明性を提供する。
1) 定量的IoU検証(平均0.86)と(2) 分類推論のためのGrad-CAM。
BUSIデータセットでは、HyFormer-NetがDice Score 0.761 +/-0.072と精度93.2%を獲得し、U-Net、Attention U-Net、TransUNetを上回っている。
92.1 +/- 2.2%の悪性リコールは、最小の偽陰性を保証する。
アンサンブル・モデリングは例外的なDice 90.2%、精度99.5%、完璧な100%悪性リコールをもたらし、偽陰性を排除している。
アブレーション研究により、マルチスケール核融合は+16.8%Diceに寄与し、アテンションゲートは+5.9%増加した。
胸部超音波検査におけるハイブリッドCNN変換器のクロスデータセット一般化研究について検討した。
ゼロショット転送は失敗する(Dice:0.058)。
しかし、目標ドメインデータ(68画像)の10%しか持たないプログレッシブ微調整は92.5%のパフォーマンスを回復させる。
50%のデータで77.3%のDiceを実現し、ソースドメイン性能(76.1%)を超え、真の一般化を示した。
関連論文リスト
- MSRANetV2: An Explainable Deep Learning Architecture for Multi-class Classification of Colorectal Histopathological Images [3.4859776888706233]
大腸癌(CRC)は、世界中のがん関連死亡率の高い疾患である。
ディープラーニングアルゴリズムは、診断精度と効率を高めるための強力なアプローチとなっている。
大腸組織像の分類に最適化されたMSRANetV2という畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-10-28T07:22:34Z) - Uncertainty-aware Cross-training for Semi-supervised Medical Image Segmentation [45.96892342675963]
半教師型医療画像(UC-Seg)のための不確実性を考慮したクロストレーニングフレームワークを提案する。
本手法は,他の最先端半教師付き手法と比較して,セグメンテーション精度と一般化性能に優れる。
論文 参考訳(メタデータ) (2025-08-12T15:28:10Z) - FUTransUNet-GradCAM: A Hybrid Transformer-U-Net with Self-Attention and Explainable Visualizations for Foot Ulcer Segmentation [0.0]
糖尿病性足潰瘍 (DFUs) の自動分節は, 臨床診断, 治療計画, 縦断的創傷モニタリングにおいて重要な役割を担っている。
従来の畳み込みニューラルネットワーク(CNN)は、強力なローカライゼーション機能を提供するが、長距離空間依存のモデル化に苦慮している。
視覚変換器(ViT)のグローバルアテンション機構をU-Netフレームワークに統合するハイブリッドアーキテクチャであるFUTransUNetを提案する。
論文 参考訳(メタデータ) (2025-08-04T11:05:14Z) - Advanced U-Net Architectures with CNN Backbones for Automated Lung Cancer Detection and Segmentation in Chest CT Images [0.0]
本研究では, 各種畳み込みニューラルネットワーク(CNN)のバックボーンと統合したU-Netアーキテクチャの有効性について検討し, 胸部CT画像における肺がんの自動検出とセグメンテーションについて検討した。
U-Netモデルは3つのCNNバックボーン(ResNet50、VGG16、Xception)で開発された。
分類において、U-Net with Xceptionを用いたCNNモデルは99.1%の精度、99.74パーセントのリコール、99.42パーセントのF1スコアを達成した。
論文 参考訳(メタデータ) (2025-07-14T04:08:33Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Automated Pulmonary Embolism Detection from CTPA Images Using an
End-to-End Convolutional Neural Network [31.58557856188164]
本研究では,肺塞栓症(PE)検出のための終末から終末までトレーニング可能な畳み込みニューラルネットワーク(CNN)を提案する。
本システムでは,0mm,2mm,5mmで1体積あたりの偽陽性が63.2%,78.9%,86.8%であった。
論文 参考訳(メタデータ) (2021-11-10T03:01:55Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - D2A U-Net: Automatic Segmentation of COVID-19 Lesions from CT Slices
with Dilated Convolution and Dual Attention Mechanism [9.84838467721235]
拡張型コンボリューションと新しいデュアルアテンション機構に基づくCTスライスにおけるCOVID-19病変セグメンテーションのための拡張型デュアルアテンションU-Net(D2A U-Net)を提案する。
以上の結果から,拡張畳み込みと二重注意機構を導入することにより,偽陽性の数が大幅に減少することが示唆された。
論文 参考訳(メタデータ) (2021-02-10T01:21:59Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。