論文の概要: Deep learning model trained on mobile phone-acquired frozen section
images effectively detects basal cell carcinoma
- arxiv url: http://arxiv.org/abs/2011.11081v1
- Date: Sun, 22 Nov 2020 18:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 08:51:30.662354
- Title: Deep learning model trained on mobile phone-acquired frozen section
images effectively detects basal cell carcinoma
- Title(参考訳): 携帯電話による凍結部画像を用いた深層学習モデルは基底細胞癌を効果的に検出する
- Authors: Junli Cao, B.S., Junyan Wu, M.S., Jing W. Zhang, M.D., Ph.D., Jay J.
Ye, M.D., Ph.D., Limin Yu, M.D., M.S
- Abstract要約: 携帯電話が取得した凍結部画像に基づいて学習したディープラーニングモデルが,将来の展開に十分な性能を持つかどうかを考察する。
モデルは入力として画像を使用し、同じ次元の予測の2次元の白黒出力を生成する。
このモデルは、レシーバ演算子曲線の0.99の曲線と、画素レベルでの高精度リコール曲線の0.97の領域を達成している。
- 参考スコア(独自算出の注目度): 0.728871001316957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Margin assessment of basal cell carcinoma using the frozen
section is a common task of pathology intraoperative consultation. Although
frequently straight-forward, the determination of the presence or absence of
basal cell carcinoma on the tissue sections can sometimes be challenging. We
explore if a deep learning model trained on mobile phone-acquired frozen
section images can have adequate performance for future deployment. Materials
and Methods: One thousand two hundred and forty-one (1241) images of frozen
sections performed for basal cell carcinoma margin status were acquired using
mobile phones. The photos were taken at 100x magnification (10x objective). The
images were downscaled from a 4032 x 3024 pixel resolution to 576 x 432 pixel
resolution. Semantic segmentation algorithm Deeplab V3 with Xception backbone
was used for model training. Results: The model uses an image as input and
produces a 2-dimensional black and white output of prediction of the same
dimension; the areas determined to be basal cell carcinoma were displayed with
white color, in a black background. Any output with the number of white pixels
exceeding 0.5% of the total number of pixels is deemed positive for basal cell
carcinoma. On the test set, the model achieves area under curve of 0.99 for
receiver operator curve and 0.97 for precision-recall curve at the pixel level.
The accuracy of classification at the slide level is 96%. Conclusions: The deep
learning model trained with mobile phone images shows satisfactory performance
characteristics, and thus demonstrates the potential for deploying as a mobile
phone app to assist in frozen section interpretation in real time.
- Abstract(参考訳): 背景: 凍結部を用いた基底細胞癌のマージン評価は, 術中診断の一般的な課題である。
しばしば直進するが、組織に基底細胞癌が存在するか、存在しないかの決定は、しばしば困難である。
携帯電話が取得した凍結部画像に基づいて学習したディープラーニングモデルが,将来の展開に十分な性能を持つかどうかを考察する。
材料と方法: 基底細胞癌マージンに対する凍結切片の1万2100枚と41枚 (1241枚) を携帯電話を用いて取得した。
写真は100倍(目標の10倍)で撮影された。
画像は4032 x 3024ピクセルの解像度から576 x 432ピクセルの解像度に縮小された。
モデルトレーニングには意味セグメンテーションアルゴリズムのdeeplab v3とxception backboneが使用された。
結果: モデルは入力として画像を使用し, 同一次元の予測の2次元と白の出力を生成し, 基底細胞癌と判定された領域は黒色で表示された。
基底細胞癌では、全画素数の0.5%を超える白色画素の出力は陽性とみなされる。
テストセットでは、レシーバ演算子曲線の0.99、画素レベルでの高精度リコール曲線の0.97の曲線の領域を達成する。
スライドレベルでの分類精度は96%であった。
結論: 携帯電話画像を用いた深層学習モデルは, 良好な性能特性を示し, 凍結部分解釈をリアルタイムに支援するための携帯電話アプリとしての展開の可能性を示す。
関連論文リスト
- Segmentation and Characterization of Macerated Fibers and Vessels Using
Deep Learning [0.5325390073522079]
木材は繊維や容器などの異なる細胞タイプから構成され、その特性を定義する。
そこで我々は,一段階YOLOv8モデルを用いた自動ディープラーニングセグメンテーション手法を開発した。
このモデルは32640 x 25920ピクセルの画像を分析し、有効な細胞検出とセグメンテーションを示し、mAP_0.5-0.95の78 %を達成する。
論文 参考訳(メタデータ) (2024-01-30T12:04:56Z) - Corneal endothelium assessment in specular microscopy images with Fuchs'
dystrophy via deep regression of signed distance maps [48.498376125522114]
本稿では,UNetをベースとしたセグメンテーション手法を提案する。
これは、フックスのジストロフィーの全度にわたって、信頼できるCE形態計測と腸骨同定を実現する。
論文 参考訳(メタデータ) (2022-10-13T15:34:20Z) - Histopathological Imaging Classification of Breast Tissue for Cancer
Diagnosis Support Using Deep Learning Models [0.0]
ヘマトキシリンとエオシンはがん診断における金の標準であると考えられている。
病理画像(WSI)を複数のパッチに分割するアイデアに基づいて,左から右へスライドし,上から下へスライドするウィンドウ[512,512]を,400イメージのデータセット上の拡張データに対して,各スライディングステップが50%重なり合うように使用した。
EffficientNetモデルは、高解像度の画像のトレーニングに適した、固定されたスケーリング要素のセットで、ネットワークの幅、深さ、解像度を均一にスケーリングする、最近開発されたモデルである。
論文 参考訳(メタデータ) (2022-07-03T13:56:44Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Fast whole-slide cartography in colon cancer histology using superpixels
and CNN classification [0.22312377591335414]
通常、全体スライディングイメージは小さなパッチに分割され、機械学習ベースのアプローチを使用して個別に分析される。
本稿では,画像の分類に先立って,視覚的に類似した画像画素をより大きなセグメント,すなわちスーパーピクセルに分類することで,画像をコヒーレントな領域に分割することを提案する。
このアルゴリズムは手書きの大腸切除画像159枚のデータセットを用いて開発・検証され,その性能は標準的なパッチベースアプローチと比較されている。
論文 参考訳(メタデータ) (2021-06-30T08:34:06Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - A Multi-resolution Model for Histopathology Image Classification and
Localization with Multiple Instance Learning [9.36505887990307]
精度マップを利用して不審な地域を検知し,詳細なグレード予測を行うマルチレゾリューション・マルチインスタンス学習モデルを提案する。
このモデルは、830人の患者から20,229のスライドを含む大規模前立腺生検データセットに基づいて開発された。
このモデルは92.7%の精度、良性、低等級(中等級)、高等級(中等級)のCohen's Kappa、98.2%の受信機動作特性曲線(AUROC)、平均精度(AP)97.4%の予測を達成した。
論文 参考訳(メタデータ) (2020-11-05T06:42:39Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z) - Investigating and Exploiting Image Resolution for Transfer
Learning-based Skin Lesion Classification [3.110738188734789]
CNNは皮膚病変の分類に有効であることが示されている。
本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。
以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセルの画像では画像サイズが大きくなり,分類精度がわずかに向上した。
論文 参考訳(メタデータ) (2020-06-25T21:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。