論文の概要: SDCT-AuxNet$^{\theta}$: DCT Augmented Stain Deconvolutional CNN with
Auxiliary Classifier for Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2006.00304v2
- Date: Mon, 8 Jun 2020 01:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 18:09:50.115356
- Title: SDCT-AuxNet$^{\theta}$: DCT Augmented Stain Deconvolutional CNN with
Auxiliary Classifier for Cancer Diagnosis
- Title(参考訳): sdct-auxnet$^{\theta}$:癌診断のための補助分類器を用いたdct-auxnet$^{\theta}$:dct拡張染色脱畳cnn
- Authors: Shiv Gehlot and Anubha Gupta and Ritu Gupta
- Abstract要約: 急性リンパ性白血病(英語: acute lymphoblastic leukemia,ALL)は、世界中の小児の白血球癌である。
本稿では,all癌細胞像の分類のための新しいディープラーニングアーキテクチャを提案する。
先日公表した15114枚のall癌と健康な細胞のデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 14.567067583556714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acute lymphoblastic leukemia (ALL) is a pervasive pediatric white blood cell
cancer across the globe. With the popularity of convolutional neural networks
(CNNs), computer-aided diagnosis of cancer has attracted considerable
attention. Such tools are easily deployable and are cost-effective. Hence,
these can enable extensive coverage of cancer diagnostic facilities. However,
the development of such a tool for ALL cancer was challenging so far due to the
non-availability of a large training dataset. The visual similarity between the
malignant and normal cells adds to the complexity of the problem. This paper
discusses the recent release of a large dataset and presents a novel deep
learning architecture for the classification of cell images of ALL cancer. The
proposed architecture, namely, SDCT-AuxNet$^{\theta}$ is a 2-module framework
that utilizes a compact CNN as the main classifier in one module and a Kernel
SVM as the auxiliary classifier in the other one. While CNN classifier uses
features through bilinear-pooling, spectral-averaged features are used by the
auxiliary classifier. Further, this CNN is trained on the stain deconvolved
quantity images in the optical density domain instead of the conventional RGB
images. A novel test strategy is proposed that exploits both the classifiers
for decision making using the confidence scores of their predicted class
labels. Elaborate experiments have been carried out on our recently released
public dataset of 15114 images of ALL cancer and healthy cells to establish the
validity of the proposed methodology that is also robust to subject-level
variability. A weighted F1 score of 94.8$\%$ is obtained that is best so far on
this challenging dataset.
- Abstract(参考訳): 急性リンパ性白血病(英語: acute lymphoblastic leukemia,ALL)は、世界中の小児の白血球癌である。
畳み込みニューラルネットワーク(CNN)の人気により、コンピュータ支援によるがん診断が注目されている。
このようなツールは簡単にデプロイでき、コスト効率がよい。
これにより、がん診断施設の広範囲をカバーすることができる。
しかし, 大規模な訓練データセットが利用不可能であったため, このようなall癌治療ツールの開発は困難であった。
悪性細胞と正常細胞の視覚的類似性は、問題の複雑さを増す。
本稿では,最近の大規模データセットのリリースについて論じ,all癌細胞像の分類のための新しいディープラーニングアーキテクチャを提案する。
提案アーキテクチャ,すなわちSDCT-AuxNet$^{\theta}$は,1つのモジュールの主分類器としてコンパクトCNN,もう1つのモジュールの補助分類器としてカーネルSVMを利用する2モジュールフレームワークである。
CNN分類器は双線形プールによる特徴を用いるが、スペクトル平均化機能は補助分類器によって使用される。
また、このcnnは、従来のrgb画像ではなく、光密度領域の汚れ縮退量画像に基づいて訓練される。
予測されたクラスラベルの信頼度スコアを用いた意思決定に両分類器を利用する新しいテスト戦略を提案する。
提案手法の有効性を検証するため,最近公表された15114個のがんおよび健康細胞画像の公開データセットを用いて精巧な実験を行った。
この挑戦的なデータセットにおいて、これまでのところ最良である94.8$\%$の重み付きf1スコアが得られる。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Acute Lymphoblastic Leukemia Detection from Microscopic Images Using
Weighted Ensemble of Convolutional Neural Networks [4.095759108304108]
本稿では,深層畳み込みニューラルネットワーク(cnns)を用いた顕微鏡細胞画像からの全検出タスクを自動化した。
ネットワークのより優れた一般化を達成するために、様々なデータ拡張と前処理が組み込まれている。
提案する重み付きアンサンブルモデルでは, アンサンブル候補のカッパ値を重みとして, 重み付きF1スコア88.6 %, バランス付き精度86.2 %, 予備試験セットのAUC0.941を出力した。
論文 参考訳(メタデータ) (2021-05-09T18:58:48Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Fusion of convolution neural network, support vector machine and Sobel
filter for accurate detection of COVID-19 patients using X-ray images [14.311213877254348]
新型コロナウイルス(COVID-19)は現在、世界中で流行する最も一般的な伝染病である。
新型コロナウイルスの感染拡大を防ぐために, 迅速診断のための臨床手順とともに, 自動診断システムを使用することが不可欠である。
本研究では, コンボリューションニューラルネットワーク(CNN), サポートベクターマシン(SVM), ソベルフィルタを融合させて, X線画像を用いたCOVID-19の検出を提案する。
論文 参考訳(メタデータ) (2021-02-13T08:08:36Z) - C-Net: A Reliable Convolutional Neural Network for Biomedical Image
Classification [6.85316573653194]
生体医用画像の分類を行うために,C-Netと呼ばれる複数のネットワークの結合からなる新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
C-Netモデルは、両方のデータセットの個々のメトリクスにおける他のモデルよりも優れており、誤分類はゼロである。
論文 参考訳(メタデータ) (2020-10-30T20:03:20Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。