論文の概要: AResNet-ViT: A Hybrid CNN-Transformer Network for Benign and Malignant Breast Nodule Classification in Ultrasound Images
- arxiv url: http://arxiv.org/abs/2407.19316v1
- Date: Sat, 27 Jul 2024 18:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:51:52.287291
- Title: AResNet-ViT: A Hybrid CNN-Transformer Network for Benign and Malignant Breast Nodule Classification in Ultrasound Images
- Title(参考訳): AResNet-ViT: 超音波画像における良性および悪性乳腺分類のためのハイブリッドCNN変換器ネットワーク
- Authors: Xin Zhao, Qianqian Zhu, Jialing Wu,
- Abstract要約: CNNとTransformerを統合した深層学習ネットワークが,超音波画像における良性および悪性乳腺病変の分類のために提案されている。
このネットワークは、局所的特徴抽出にデュアルブランチアーキテクチャを採用し、局所的特徴抽出におけるCNNの利点をフル活用する。
グローバルな特徴抽出ブランチは、組織全体の形状、境界、および周囲の組織との関係をキャプチャできるマルチヘッド自己注意型ViTネットワークを利用する。
- 参考スコア(独自算出の注目度): 4.378181181541931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the challenges of similarity between lesions and surrounding tissues, overlapping appearances of partially benign and malignant nodules, and difficulty in classification, a deep learning network that integrates CNN and Transformer is proposed for the classification of benign and malignant breast lesions in ultrasound images. This network adopts a dual-branch architecture for local-global feature extraction, making full use of the advantages of CNN in extracting local features and the ability of ViT to extract global features to enhance the network's feature extraction capabilities for breast nodules. The local feature extraction branch employs a residual network with multiple attention-guided modules, which can effectively capture the local details and texture features of breast nodules, enhance sensitivity to subtle changes within the nodules, and thus can aid in accurate classification of their benign and malignancy. The global feature extraction branch utilizes the multi-head self-attention ViT network, which can capture the overall shape, boundary, and relationship with surrounding tissues, and thereby enhancing the understanding and modeling of both nodule and global image features. Experimental results on a public ultrasound breast nodule data set show that the proposed method is better than other comparison networks, This indicates that the fusion of CNN and Transformer networks can effectively improve the performance of the classification model and provide a powerful solution for the benign-malignant classification of ultrasound breast.
- Abstract(参考訳): CNNとTransformerを統合した深層学習ネットワークは, 超音波画像における良性および悪性乳腺病変の分類において, 病変と周囲組織との類似性, 部分良性および悪性結節の出現の重複, 分類の難しさに対処する。
このネットワークは、局所的特徴抽出のためのデュアルブランチアーキテクチャを採用し、局所的特徴抽出におけるCNNの利点と、乳腺結節に対するネットワークの機能抽出能力を高めるために、グローバルな特徴抽出能力のViTをフル活用する。
局所的特徴抽出部は、複数の注意誘導モジュールを持つ残留ネットワークを使用し、乳腺結節の局所的詳細およびテクスチャ的特徴を効果的に捉え、結節内の微妙な変化に対する感受性を高め、良性および悪性の正確な分類を助ける。
大域的特徴抽出部は多頭部自己注意型ViTネットワークを利用して, 周囲の組織との全体形状, 境界, 関係を把握し, 結節および大域的画像の特徴の理解とモデリングを向上させる。
超音波乳房結節データセットを用いた実験結果から,CNNとTransformerネットワークの融合により分類モデルの性能が向上し,良悪性乳房分類のための強力な解法が得られた。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Joint localization and classification of breast tumors on ultrasound
images using a novel auxiliary attention-based framework [7.6620616780444974]
本稿では,注意機構と半教師付き半教師付き学習戦略に基づく,新しい共同局所化と分類モデルを提案する。
提案されたモジュール化フレームワークは、様々なアプリケーションに対して柔軟なネットワーク置換を可能にする。
論文 参考訳(メタデータ) (2022-10-11T20:14:13Z) - BAGNet: Bidirectional Aware Guidance Network for Malignant Breast
lesions Segmentation [5.823080777200961]
乳房超音波画像から悪性病変を識別するために, 双方向意識誘導ネットワーク(BAGNet)を提案する。
BAGNetは、入力された粗いサリエンシマップからグローバル(低レベル)とローカル(高レベル)の機能の間のコンテキストをキャプチャする。
グローバルな特徴マップの導入は、病変領域における周囲の組織(背景)の干渉を減らすことができる。
論文 参考訳(メタデータ) (2022-04-28T08:28:06Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Classification of Breast Cancer Lesions in Ultrasound Images by using
Attention Layer and loss Ensembles in Deep Convolutional Neural Networks [0.0]
本稿では,VGG16アーキテクチャーのアテンションモジュールを用いた乳癌病変の分類のための新しい枠組みを提案する。
また,双曲性コサイン損失の二値交互エントロピーと対数の組み合わせである新たなアンサンブル損失関数を提案し,分類病変とそのラベル間のモデル差を改善する。
本研究で提案したモデルは,93%の精度で他の改良VGG16アーキテクチャよりも優れており,乳がん病変の分類のための他の技術フレームワークと競合する結果となった。
論文 参考訳(メタデータ) (2021-02-23T06:49:12Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。