論文の概要: Deep learning model trained on mobile phone-acquired frozen section
images effectively detects basal cell carcinoma
- arxiv url: http://arxiv.org/abs/2011.11081v1
- Date: Sun, 22 Nov 2020 18:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 08:51:30.662354
- Title: Deep learning model trained on mobile phone-acquired frozen section
images effectively detects basal cell carcinoma
- Title(参考訳): 携帯電話による凍結部画像を用いた深層学習モデルは基底細胞癌を効果的に検出する
- Authors: Junli Cao, B.S., Junyan Wu, M.S., Jing W. Zhang, M.D., Ph.D., Jay J.
Ye, M.D., Ph.D., Limin Yu, M.D., M.S
- Abstract要約: 携帯電話が取得した凍結部画像に基づいて学習したディープラーニングモデルが,将来の展開に十分な性能を持つかどうかを考察する。
モデルは入力として画像を使用し、同じ次元の予測の2次元の白黒出力を生成する。
このモデルは、レシーバ演算子曲線の0.99の曲線と、画素レベルでの高精度リコール曲線の0.97の領域を達成している。
- 参考スコア(独自算出の注目度): 0.728871001316957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Margin assessment of basal cell carcinoma using the frozen
section is a common task of pathology intraoperative consultation. Although
frequently straight-forward, the determination of the presence or absence of
basal cell carcinoma on the tissue sections can sometimes be challenging. We
explore if a deep learning model trained on mobile phone-acquired frozen
section images can have adequate performance for future deployment. Materials
and Methods: One thousand two hundred and forty-one (1241) images of frozen
sections performed for basal cell carcinoma margin status were acquired using
mobile phones. The photos were taken at 100x magnification (10x objective). The
images were downscaled from a 4032 x 3024 pixel resolution to 576 x 432 pixel
resolution. Semantic segmentation algorithm Deeplab V3 with Xception backbone
was used for model training. Results: The model uses an image as input and
produces a 2-dimensional black and white output of prediction of the same
dimension; the areas determined to be basal cell carcinoma were displayed with
white color, in a black background. Any output with the number of white pixels
exceeding 0.5% of the total number of pixels is deemed positive for basal cell
carcinoma. On the test set, the model achieves area under curve of 0.99 for
receiver operator curve and 0.97 for precision-recall curve at the pixel level.
The accuracy of classification at the slide level is 96%. Conclusions: The deep
learning model trained with mobile phone images shows satisfactory performance
characteristics, and thus demonstrates the potential for deploying as a mobile
phone app to assist in frozen section interpretation in real time.
- Abstract(参考訳): 背景: 凍結部を用いた基底細胞癌のマージン評価は, 術中診断の一般的な課題である。
しばしば直進するが、組織に基底細胞癌が存在するか、存在しないかの決定は、しばしば困難である。
携帯電話が取得した凍結部画像に基づいて学習したディープラーニングモデルが,将来の展開に十分な性能を持つかどうかを考察する。
材料と方法: 基底細胞癌マージンに対する凍結切片の1万2100枚と41枚 (1241枚) を携帯電話を用いて取得した。
写真は100倍(目標の10倍)で撮影された。
画像は4032 x 3024ピクセルの解像度から576 x 432ピクセルの解像度に縮小された。
モデルトレーニングには意味セグメンテーションアルゴリズムのdeeplab v3とxception backboneが使用された。
結果: モデルは入力として画像を使用し, 同一次元の予測の2次元と白の出力を生成し, 基底細胞癌と判定された領域は黒色で表示された。
基底細胞癌では、全画素数の0.5%を超える白色画素の出力は陽性とみなされる。
テストセットでは、レシーバ演算子曲線の0.99、画素レベルでの高精度リコール曲線の0.97の曲線の領域を達成する。
スライドレベルでの分類精度は96%であった。
結論: 携帯電話画像を用いた深層学習モデルは, 良好な性能特性を示し, 凍結部分解釈をリアルタイムに支援するための携帯電話アプリとしての展開の可能性を示す。
関連論文リスト
- Cell Culture Assistive Application for Precipitation Image Diagnosis [0.0]
光学顕微鏡画像を用いた384孔板の降水を自動的に検出するアプリケーションを開発した。
MNペアのコントラストクラスタリングを適用し,約20,000のパッチ画像から降水クラスを抽出する。
また,四重項井戸画像の最大値から降水量を検出するための機械学習パイプラインを構築した。
論文 参考訳(メタデータ) (2024-07-29T11:42:32Z) - Deep Learning Algorithms for Early Diagnosis of Acute Lymphoblastic Leukemia [0.0]
急性リンパ性白血病(英語: acute lymphoblastic leukemia、ALL)は、白血球に影響を及ぼす血液がんの一種である。
本研究では,ALの診断過程を支援するバイナリ画像分類モデルを提案する。
論文 参考訳(メタデータ) (2024-07-14T15:35:39Z) - Histopathological Image Classification with Cell Morphology Aware Deep Neural Networks [11.749248917866915]
本稿では,細胞形態を学習し,多数のがんタイプを同定するために事前訓練した新しいDeepCMorphモデルを提案する。
7175例の8736例の診断スライドから抽出した270K以上の組織パッチからなるPan-Cancer TCGAデータセット上で,本モジュールを事前訓練した。
提案手法は, 82%以上の精度で32種類の癌を検出でき, 従来提案されていたすべてのソリューションを4%以上上回る性能を示した。
論文 参考訳(メタデータ) (2024-07-11T16:03:59Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - Histopathological Imaging Classification of Breast Tissue for Cancer
Diagnosis Support Using Deep Learning Models [0.0]
ヘマトキシリンとエオシンはがん診断における金の標準であると考えられている。
病理画像(WSI)を複数のパッチに分割するアイデアに基づいて,左から右へスライドし,上から下へスライドするウィンドウ[512,512]を,400イメージのデータセット上の拡張データに対して,各スライディングステップが50%重なり合うように使用した。
EffficientNetモデルは、高解像度の画像のトレーニングに適した、固定されたスケーリング要素のセットで、ネットワークの幅、深さ、解像度を均一にスケーリングする、最近開発されたモデルである。
論文 参考訳(メタデータ) (2022-07-03T13:56:44Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Fast whole-slide cartography in colon cancer histology using superpixels
and CNN classification [0.22312377591335414]
通常、全体スライディングイメージは小さなパッチに分割され、機械学習ベースのアプローチを使用して個別に分析される。
本稿では,画像の分類に先立って,視覚的に類似した画像画素をより大きなセグメント,すなわちスーパーピクセルに分類することで,画像をコヒーレントな領域に分割することを提案する。
このアルゴリズムは手書きの大腸切除画像159枚のデータセットを用いて開発・検証され,その性能は標準的なパッチベースアプローチと比較されている。
論文 参考訳(メタデータ) (2021-06-30T08:34:06Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。