論文の概要: A Novel Channel Boosted Residual CNN-Transformer with Regional-Boundary Learning for Breast Cancer Detection
- arxiv url: http://arxiv.org/abs/2503.15008v1
- Date: Wed, 19 Mar 2025 08:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:26:07.070305
- Title: A Novel Channel Boosted Residual CNN-Transformer with Regional-Boundary Learning for Breast Cancer Detection
- Title(参考訳): 乳がん検出のための領域境界学習用チャネル強化残留CNN変換器
- Authors: Aamir Mehmood, Yue Hu, Saddam Hussain Khan,
- Abstract要約: 本研究では, CB-Res-RBCMTという新しいハイブリッドフレームワークを導入する。
提案したRBCMTは,CNN Meet Transformer (CMT) ブロックとステム畳み込みブロックを用いており,その後に新たなRegional and boundary (RB) 特徴抽出操作を行う。
提案されたCB-Res-RBCMTは、95.57%のF1スコア、95.63%の精度、96.42%の感度、標準ハーモナイズドストリジェントBUSIデータセットの94.79%の精度を達成した。
- 参考スコア(独自算出の注目度): 6.6149904114661
- License:
- Abstract: Recent advancements in detecting tumors using deep learning on breast ultrasound images (BUSI) have demonstrated significant success. Deep CNNs and vision-transformers (ViTs) have demonstrated individually promising initial performance. However, challenges related to model complexity and contrast, texture, and tumor morphology variations introduce uncertainties that hinder the effectiveness of current methods. This study introduces a novel hybrid framework, CB-Res-RBCMT, combining customized residual CNNs and new ViT components for detailed BUSI cancer analysis. The proposed RBCMT uses stem convolution blocks with CNN Meet Transformer (CMT) blocks, followed by new Regional and boundary (RB) feature extraction operations for capturing contrast and morphological variations. Moreover, the CMT block incorporates global contextual interactions through multi-head attention, enhancing computational efficiency with a lightweight design. Additionally, the customized inverse residual and stem CNNs within the CMT effectively extract local texture information and handle vanishing gradients. Finally, the new channel-boosted (CB) strategy enriches the feature diversity of the limited dataset by combining the original RBCMT channels with transfer learning-based residual CNN-generated maps. These diverse channels are processed through a spatial attention block for optimal pixel selection, reducing redundancy and improving the discrimination of minor contrast and texture variations. The proposed CB-Res-RBCMT achieves an F1-score of 95.57%, accuracy of 95.63%, sensitivity of 96.42%, and precision of 94.79% on the standard harmonized stringent BUSI dataset, outperforming existing ViT and CNN methods. These results demonstrate the versatility of our integrated CNN-Transformer framework in capturing diverse features and delivering superior performance in BUSI cancer diagnosis.
- Abstract(参考訳): 近年,乳房超音波画像(BUSI)の深層学習による腫瘍検出の進歩が顕著である。
ディープCNNとヴィジュアルトランスフォーマー(ViT)は、個々に有望な初期性能を示している。
しかし、モデルの複雑さとコントラスト、テクスチャ、腫瘍形態の変化に関連する課題は、現在の方法の有効性を妨げる不確実性をもたらす。
本研究では, CB-Res-RBCMTという新しいハイブリッドフレームワークを導入する。
提案したRBCMTは,CNN Meet Transformer(CMT)ブロックとステム畳み込みブロックを用いて,コントラストと形態変化を捉えるために,新たにRB(Regional and boundary)特徴抽出操作を行う。
さらに、CMTブロックは、マルチヘッドアテンションを通じてグローバルなコンテキスト相互作用を取り入れ、軽量な設計で計算効率を向上する。
さらに、CMT内のカスタマイズされた逆残差と幹CNNは、局所的なテクスチャ情報を抽出し、消滅する勾配を処理する。
最後に,従来のRBCMTチャネルとトランスファーラーニングに基づく残差CNN生成マップを組み合わせることで,制限されたデータセットの特徴多様性を向上する。
これらの多様なチャネルは、最適な画素選択のための空間的アテンションブロックを通して処理され、冗長性を低減し、小さなコントラストとテクスチャの変化の識別を改善する。
提案されたCB-Res-RBCMTは、95.57%のF1スコア、95.63%の精度、96.42%の感度、および標準調和された文字列型BUSIデータセットでの94.79%の精度を達成し、既存のViTおよびCNN法より優れている。
これらの結果は,CNN-Transformer フレームワークの多彩な特徴を捉え,BUSI 癌診断における優れた性能を実現する上での有用性を示すものである。
関連論文リスト
- CNN-Transformer Rectified Collaborative Learning for Medical Image Segmentation [60.08541107831459]
本稿では,医用画像セグメンテーションのための強力なCNNベースモデルとトランスフォーマーベースモデルを学習するための,CNN-Transformer修正協調学習フレームワークを提案する。
具体的には,学生ソフトラベルの誤り領域を適応的に選択・修正する基礎的真理を取り入れた修正ロジット・ワイド・コラボレーティブ・ラーニング(RLCL)戦略を提案する。
また,機能空間におけるCNNベースモデルとTransformerベースモデル間の効果的な知識伝達を実現するために,クラス認識型特徴量協調学習(CFCL)戦略を提案する。
論文 参考訳(メタデータ) (2024-08-25T01:27:35Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - A Novel Feature Map Enhancement Technique Integrating Residual CNN and Transformer for Alzheimer Diseases Diagnosis [1.2432046687586285]
アルツハイマー病(AD)は認知機能低下と異常な脳タンパクの蓄積を伴い、効果的な治療のために時間的診断を必要とする。
ディープラーニングの進歩を活かしたCADシステムはAD検出に成功しているが、計算精度とデータセットの微妙なコントラスト、構造、テクスチャの変化を呈している。
このアプローチは、新しいCNN Meet Transformer(HSCMT)、カスタマイズされた残留学習CNN、ADの多様な形態、コントラスト、テクスチャのバリエーションを学ぶための新しい特徴マップ拡張(FME)戦略の3つの異なる要素を統合する。
論文 参考訳(メタデータ) (2024-03-30T10:17:13Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - COVID-19 Infection Analysis Framework using Novel Boosted CNNs and
Radiological Images [0.0]
新型の2段階分析フレームワークは、新型コロナウイルス感染の微小な不規則性を分析するために開発された。
畳み込みニューラルネットワーク(CNN:Convolutional Neural Network, STM-BRNet)を開発した。
提案手法は単相および他の報告システムと比較して性能が有意に向上した。
論文 参考訳(メタデータ) (2023-02-06T08:39:27Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - A heterogeneous group CNN for image super-resolution [127.2132400582117]
畳み込みニューラルネットワーク(CNN)は、深いアーキテクチャを通して顕著な性能を得た。
異種グループSR CNN(HGSRCNN)を,異なるタイプの構造情報を利用して高品質な画像を得る。
論文 参考訳(メタデータ) (2022-09-26T04:14:59Z) - COVID-19 Detection and Analysis From Lung CT Images using Novel Channel
Boosted CNNs [0.0]
2相ディープ畳み込みニューラルネットワーク(CNN)に基づく診断システムを提案し、微小な異常を検出し、COVID-19感染を分析する。
提案した診断システムは、精度が98.21 %、Fスコアが98.24%、Dice similarityが96.40 %、IOUが98.85 %である。
論文 参考訳(メタデータ) (2022-09-22T12:32:16Z) - Scopeformer: n-CNN-ViT Hybrid Model for Intracranial Hemorrhage
Classification [0.0]
本稿では、視覚変換器(ViT)モデルを改善するために、畳み込みニューラルネットワーク(CNN)のアンサンブルからなる特徴生成器を提案する。
複数のXception CNNを用いて抽出した特徴マップを徐々に積み重ねることで、VTモデルのための特徴量豊富な入力を開発することができることを示す。
論文 参考訳(メタデータ) (2021-07-07T20:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。