論文の概要: EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer
- arxiv url: http://arxiv.org/abs/2201.04795v1
- Date: Thu, 13 Jan 2022 05:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-15 00:02:52.632998
- Title: EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer
- Title(参考訳): EMT-NET: 乳がんのコンピュータ診断に有効なマルチタスクネットワーク
- Authors: Jiaqiao Shi, Aleksandar Vakanski, Min Xian, Jianrui Ding, Chunping
Ning
- Abstract要約: 乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning-based computer-aided diagnosis has achieved unprecedented
performance in breast cancer detection. However, most approaches are
computationally intensive, which impedes their broader dissemination in
real-world applications. In this work, we propose an efficient and
light-weighted multitask learning architecture to classify and segment breast
tumors simultaneously. We incorporate a segmentation task into a tumor
classification network, which makes the backbone network learn representations
focused on tumor regions. Moreover, we propose a new numerically stable loss
function that easily controls the balance between the sensitivity and
specificity of cancer detection. The proposed approach is evaluated using a
breast ultrasound dataset with 1,511 images. The accuracy, sensitivity, and
specificity of tumor classification is 88.6%, 94.1%, and 85.3%, respectively.
We validate the model using a virtual mobile device, and the average inference
time is 0.35 seconds per image.
- Abstract(参考訳): 深層学習に基づくコンピュータ支援診断は、乳がん検出において前例のない性能を達成した。
しかし、ほとんどのアプローチは計算集約的であり、現実世界のアプリケーションで広く普及することを妨げている。
本研究では,乳腺腫瘍を同時に分類・分別するための,効率的かつ軽量なマルチタスク学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,バックボーンネットワークが腫瘍領域に焦点をあてた表現を学習する。
さらに,癌検出の感度と特異性とのバランスを容易に制御できる新しい数値安定損失関数を提案する。
提案手法は1,511画像の乳房超音波データセットを用いて評価する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
仮想モバイルデバイスを用いてモデルを検証し,画像あたりの平均推定時間は0.35秒である。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware
Prostate Cancer Classification [60.20736568336466]
臨床的に有意なPCa分類のための前立腺mp-MRIの非対位画像変換のための新しいアプローチを提案する。
我々は、明らかなディープラーニングアプローチにより、モデルの不確実性を見積もる。
提案手法は, ROC曲線(AUC)を20%以上改善することを示した。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - Improving the diagnosis of breast cancer based on biophysical ultrasound
features utilizing machine learning [0.0]
乳がん検出のための生物物理学的特徴に基づく機械学習手法を提案する。
以上より, 乳腺病変のタイプとサイズは, 分類では98.0%, 操作特性曲線では0.98以上であった。
論文 参考訳(メタデータ) (2022-07-13T23:53:09Z) - Convolutional neural network based on transfer learning for breast
cancer screening [0.0]
本稿では, 超音波画像から乳がんを正確に同定するために, 深部畳み込みニューラルネットワークに基づくアルゴリズムを提案する。
537 Benign, 360 malignant, 133 normal image の胸部超音波データセットを用いていくつかの実験を行った。
k-foldクロスバリデーションとバッグアンサンブルを用いて、99.5%の精度と99.6%の感度を実現した。
論文 参考訳(メタデータ) (2021-12-22T02:27:12Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Comparison of different CNNs for breast tumor classification from
ultrasound images [12.98780709853981]
超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
乳腺腫瘍自動分類の課題として,様々な畳み込みニューラルネットワーク(cnns)と転送学習法を比較した。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
論文 参考訳(メタデータ) (2020-12-28T22:54:08Z) - A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer
via CT Images [21.627818410241552]
本稿では,新しい膵腫瘍検出フレームワークを提案する。
提案手法のコントリビューションは,Augmented Feature Pyramid Network,Self-Adaptive Feature Fusion,Dependencies Computation Moduleの3つのコンポーネントから構成される。
実験により,AUCの0.9455による検出において,他の最先端手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2020-02-11T15:48:22Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。