論文の概要: Surpassing the Human Accuracy: Detecting Gallbladder Cancer from USG
Images with Curriculum Learning
- arxiv url: http://arxiv.org/abs/2204.11433v1
- Date: Mon, 25 Apr 2022 04:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:17:05.696653
- Title: Surpassing the Human Accuracy: Detecting Gallbladder Cancer from USG
Images with Curriculum Learning
- Title(参考訳): 人的正確性を超える:カリキュラム学習によるUSG画像からの胆嚢癌の検出
- Authors: Soumen Basu, Mayank Gupta, Pratyaksha Rana, Pankaj Gupta, Chetan Arora
- Abstract要約: 超音波(USG)画像からの胆嚢癌検出のためのCNNモデルの可能性について検討する。
USGは低コストとアクセシビリティのため、GB病で最も一般的な診断法である。
我々はGBCNetを提案し,その課題に対処する。
- 参考スコア(独自算出の注目度): 17.694219750908413
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore the potential of CNN-based models for gallbladder cancer (GBC)
detection from ultrasound (USG) images as no prior study is known. USG is the
most common diagnostic modality for GB diseases due to its low cost and
accessibility. However, USG images are challenging to analyze due to low image
quality, noise, and varying viewpoints due to the handheld nature of the
sensor. Our exhaustive study of state-of-the-art (SOTA) image classification
techniques for the problem reveals that they often fail to learn the salient GB
region due to the presence of shadows in the USG images. SOTA object detection
techniques also achieve low accuracy because of spurious textures due to noise
or adjacent organs. We propose GBCNet to tackle the challenges in our problem.
GBCNet first extracts the regions of interest (ROIs) by detecting the GB (and
not the cancer), and then uses a new multi-scale, second-order pooling
architecture specializing in classifying GBC. To effectively handle spurious
textures, we propose a curriculum inspired by human visual acuity, which
reduces the texture biases in GBCNet. Experimental results demonstrate that
GBCNet significantly outperforms SOTA CNN models, as well as the expert
radiologists. Our technical innovations are generic to other USG image analysis
tasks as well. Hence, as a validation, we also show the efficacy of GBCNet in
detecting breast cancer from USG images. Project page with source code, trained
models, and data is available at https://gbc-iitd.github.io/gbcnet
- Abstract(参考訳): 超音波(usg)画像からの胆嚢癌(gbc)検出のためのcnnモデルの可能性を検討した。
USGは低コストとアクセシビリティのため、GB病で最も一般的な診断法である。
しかし,センサのハンドヘルド特性のため,低画質,ノイズ,さまざまな視点からUSG画像を分析することは困難である。
この問題に対する最新技術(SOTA)画像分類手法の徹底的な研究により,USG画像に影があることから,正常なGB領域の学習に失敗することが多いことが明らかとなった。
SOTAオブジェクト検出技術は、ノイズや隣接臓器による刺激的なテクスチャのため、低精度を実現する。
我々はGBCNetを提案し,その課題に対処する。
GBCNetはまずGBを検出して(がんではない)関心領域(ROI)を抽出し、GBCの分類に特化した新しいマルチスケールの2階プールアーキテクチャを使用する。
そこで本研究では,GBCNetのテクスチャバイアスを低減するために,人間の視覚力に着想を得たカリキュラムを提案する。
実験の結果, GBCNetはSOTA CNNモデル, 専門家の放射線学者より有意に優れていた。
私たちの技術革新は他のusg画像分析タスクにも共通しています。
そこで本研究では,usg画像からの乳癌検出におけるgbcnetの有用性を検証した。
ソースコード、トレーニングされたモデル、データを備えたプロジェクトページは、https://gbc-iitd.github.io/gbcnetで入手できる。
関連論文リスト
- Modifying the U-Net's Encoder-Decoder Architecture for Segmentation of Tumors in Breast Ultrasound Images [0.0]
U-Netとエンコーダデコーダアーキテクチャに基づくニューラルネットワーク(NN)を提案する。
我々のネットワーク(CResU-Net)は82.88%、77.5%、90.3%、98.4%のDice類似係数を得た。
論文 参考訳(メタデータ) (2024-09-01T07:47:48Z) - FocusMAE: Gallbladder Cancer Detection from Ultrasound Videos with Focused Masked Autoencoders [7.76606060260265]
本研究は,ビデオベース検出へのパラダイムシフトを提唱する。
高情報領域からのマスキングトークンの選択を体系的にバイアスするFocusMAEという新しい設計を提案する。
我々は,現在の画像ベースSOTA-RadFormerで84%,ビデオベースSOTA-AdaMAEで94.7%,GBC検出問題で96.4%の最先端(SOTA)精度を報告した。
論文 参考訳(メタデータ) (2024-03-13T16:57:04Z) - Robust Tumor Segmentation with Hyperspectral Imaging and Graph Neural
Networks [31.87960207119459]
より堅牢でスムーズなセグメンテーションのために,タイルの空間的文脈を利用した改良手法を提案する。
タイルの不規則な形状に対処するため,グラフニューラルネットワーク(GNN)を用いて周辺地域のコンテキスト情報を伝播する。
以上の結果から, 文脈認識型GNNアルゴリズムは, HSI画像上の腫瘍の区切りを頑健に検出できることが示唆された。
論文 参考訳(メタデータ) (2023-11-20T14:07:38Z) - Gall Bladder Cancer Detection from US Images with Only Image Level
Labels [7.89876701812201]
画像レベルラベルのみを用いた胆嚢癌(GBC)の検出に着目する。
GBC検出のための標準画像分類モデルを訓練することは困難である。
トレーニング用にバウンディングボックスアノテーションは使用できないため、弱い教師付きオブジェクト検出として問題に対処する。
論文 参考訳(メタデータ) (2023-09-11T06:37:12Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - RadFormer: Transformers with Global-Local Attention for Interpretable
and Accurate Gallbladder Cancer Detection [17.694219750908413]
医用画像解析のための解釈可能な表現を学習するための新しいディープニューラルネットワークアーキテクチャを提案する。
このアーキテクチャは,関心領域のグローバルな注目を喚起し,局所的な注目を伴う単語スタイルの深い特徴埋め込みを学習する。
我々の実験は、我々のモデルの検出精度が人間の放射線学者に勝っていることを示唆している。
論文 参考訳(メタデータ) (2022-11-09T10:40:35Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。