論文の概要: Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network
- arxiv url: http://arxiv.org/abs/2308.02101v1
- Date: Fri, 4 Aug 2023 01:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 14:12:19.408423
- Title: Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network
- Title(参考訳): マルチタスクcnn-トランスフォーマネットワークを用いた乳腺超音波腫瘍分類
- Authors: Bryar Shareef, Min Xian, Aleksandar Vakanski, Haotian Wang
- Abstract要約: 胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
- 参考スコア(独自算出の注目度): 63.845552349914186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing global contextual information plays a critical role in breast
ultrasound (BUS) image classification. Although convolutional neural networks
(CNNs) have demonstrated reliable performance in tumor classification, they
have inherent limitations for modeling global and long-range dependencies due
to the localized nature of convolution operations. Vision Transformers have an
improved capability of capturing global contextual information but may distort
the local image patterns due to the tokenization operations. In this study, we
proposed a hybrid multitask deep neural network called Hybrid-MT-ESTAN,
designed to perform BUS tumor classification and segmentation using a hybrid
architecture composed of CNNs and Swin Transformer components. The proposed
approach was compared to nine BUS classification methods and evaluated using
seven quantitative metrics on a dataset of 3,320 BUS images. The results
indicate that Hybrid-MT-ESTAN achieved the highest accuracy, sensitivity, and
F1 score of 82.7%, 86.4%, and 86.0%, respectively.
- Abstract(参考訳): 乳房超音波(bus)画像分類において,グローバルコンテキスト情報の取り込みは重要な役割を担っている。
畳み込みニューラルネットワーク(CNN)は腫瘍分類において信頼性の高い性能を示したが、畳み込み操作の局所的な性質のため、グローバルおよび長距離依存をモデル化するための固有の制限がある。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする機能を改善するが、トークン化操作によってローカルイメージパターンを歪める可能性がある。
本研究では,CNNとSwin Transformerコンポーネントを組み合わせたハイブリッドアーキテクチャを用いて,BUS腫瘍の分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
提案手法は,9つのBUS分類法と比較し,3,320のBUS画像を用いて7つの定量的指標を用いて評価した。
その結果,hybrid-mt-estanは82.7%,86.4%,86.0%と高い精度,感度,f1得点を得た。
関連論文リスト
- Advanced Hybrid Deep Learning Model for Enhanced Classification of Osteosarcoma Histopathology Images [0.0]
本研究は, 小児および思春期において最も多い骨癌である骨肉腫(OS)に焦点を当て, 腕と足の長い骨に影響を及ぼす。
我々は、OSの診断精度を向上させるために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせた新しいハイブリッドモデルを提案する。
このモデルは精度99.08%、精度99.10%、リコール99.28%、F1スコア99.23%を達成した。
論文 参考訳(メタデータ) (2024-10-29T13:54:08Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - CAFCT-Net: A CNN-Transformer Hybrid Network with Contextual and Attentional Feature Fusion for Liver Tumor Segmentation [3.8952128960495638]
肝腫瘍分節化のためのコンテクスト・アテンショナル機能FusionsEnhanced Convolutional Network (CNN) と Transformer Hybrid Network (CAFCT-Net) を提案する。
実験の結果,提案モデルの平均断面積は76.54%,Dice係数は84.29%であった。
論文 参考訳(メタデータ) (2024-01-30T10:42:11Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - BiTr-Unet: a CNN-Transformer Combined Network for MRI Brain Tumor
Segmentation [2.741266294612776]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化のための,BiTr-Unetと呼ばれるCNN-Transformer複合モデルを提案する。
The proposed BiTr-Unet is a good performance on the BraTS 2021 validation dataset with mean Dice score 0.9076, 0.8392 and 0.8231, and mean Hausdorff distance 4.5322, 13.4592 and 14.9963 for the entire tumor, tumor core, and enhance tumor。
論文 参考訳(メタデータ) (2021-09-25T04:18:34Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - TransMIL: Transformer based Correlated Multiple Instance Learning for
Whole Slide Image Classication [38.58585442160062]
マルチプル・インスタンス・ラーニング(MIL)は、スライド画像全体(WSI)に基づく病理診断において、弱い教師付き分類を解決する強力なツールである。
我々は、相関MILと呼ばれる新しいフレームワークを提案し、収束の証明を提供した。
我々は3つの異なる計算病理問題に対する様々な実験を行い、最先端の手法と比較してより優れた性能と高速な収束を実現した。
論文 参考訳(メタデータ) (2021-06-02T02:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。