論文の概要: Improving Feature Extraction from Histopathological Images Through A
Fine-tuning ImageNet Model
- arxiv url: http://arxiv.org/abs/2201.00636v1
- Date: Mon, 3 Jan 2022 13:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 16:03:17.875192
- Title: Improving Feature Extraction from Histopathological Images Through A
Fine-tuning ImageNet Model
- Title(参考訳): 微調整画像ネットモデルによる病理画像の特徴抽出の改善
- Authors: Xingyu Li, Min Cen, Jinfeng Xu, Hong Zhang, Xu Steven Xu
- Abstract要約: 大腸癌(CRC)には10万点の注釈画像パッチを用い,2段階的アプローチで術前Xceptionモデルを精査した。
微細なFTX2048から抽出した特徴は,CRCの歯列型を予測する精度が有意に高かった。
FTX2048はストーマの精度を87%から94%に改善した。
- 参考スコア(独自算出の注目度): 4.976419880800879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to lack of annotated pathological images, transfer learning has been the
predominant approach in the field of digital pathology.Pre-trained neural
networks based on ImageNet database are often used to extract "off the shelf"
features, achieving great success in predicting tissue types, molecular
features, and clinical outcomes, etc. We hypothesize that fine-tuning the
pre-trained models using histopathological images could further improve feature
extraction, and downstream prediction performance.We used 100,000 annotated HE
image patches for colorectal cancer (CRC) to finetune a pretrained Xception
model via a twostep approach.The features extracted from finetuned Xception
(FTX2048) model and Imagepretrained (IMGNET2048) model were compared through:
(1) tissue classification for HE images from CRC, same image type that was used
for finetuning; (2) prediction of immunerelated gene expression and (3) gene
mutations for lung adenocarcinoma (LUAD).Fivefold cross validation was used for
model performance evaluation. The extracted features from the finetuned FTX2048
exhibited significantly higher accuracy for predicting tisue types of CRC
compared to the off the shelf feature directly from Xception based on ImageNet
database. Particularly, FTX2048 markedly improved the accuracy for stroma from
87% to 94%. Similarly, features from FTX2048 boosted the prediction of
transcriptomic expression of immunerelated genesin LUAD. For the genes that had
signigicant relationships with image fetures, the features fgrom the finetuned
model imprroved the prediction for the majority of the genes. Inaddition,
fetures from FTX2048 improved prediction of mutation for 5 out of 9 most
frequently mutated genes in LUAD.
- Abstract(参考訳): デジタル病理学の分野において、情報伝達学習が主流であり、imagenetデータベースに基づく事前学習されたニューラルネットワークは、「棚から」特徴を抽出するためによく用いられ、組織の種類、分子的特徴、臨床結果などの予測に大きな成功を収めている。
We hypothesize that fine-tuning the pre-trained models using histopathological images could further improve feature extraction, and downstream prediction performance.We used 100,000 annotated HE image patches for colorectal cancer (CRC) to finetune a pretrained Xception model via a twostep approach.The features extracted from finetuned Xception (FTX2048) model and Imagepretrained (IMGNET2048) model were compared through: (1) tissue classification for HE images from CRC, same image type that was used for finetuning; (2) prediction of immunerelated gene expression and (3) gene mutations for lung adenocarcinoma (LUAD).
5倍のクロス検証をモデル性能評価に用いた。
微細構造FTX2048から抽出した特徴は,ImageNetデータベースをベースとしたXceptionの市販品と比べ,CRCの歯列型を予測する精度が有意に高かった。
特にFTX2048はストローマの精度を87%から94%に改善した。
同様に、FTX2048の特徴は、LUADにおける免疫関連遺伝子の転写学的発現の予測を促進させた。
画像フェチュアと有意な関係を持つ遺伝子について、fgromの微調整モデルの特徴は、ほとんどの遺伝子に対する予測を妨げた。
FTX2048の胎児は、LUADで最も頻繁に変異される遺伝子9つのうち5つの変異の予測を改善した。
関連論文リスト
- AttCDCNet: Attention-enhanced Chest Disease Classification using X-Ray Images [0.0]
X線画像診断のための新しい検出モデルtextbfAttCDCNetを提案する。
提案されたモデルは、新型コロナウイルスのラジオグラフィーデータセットでそれぞれ94.94%、95.14%、94.53%の精度、精度、リコールを達成した。
論文 参考訳(メタデータ) (2024-10-20T16:08:20Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Evolving Tsukamoto Neuro Fuzzy Model for Multiclass Covid 19
Classification with Chest X Ray Images [2.609784101826762]
本稿では,Covid 19の検出のための機械学習ベースのフレームワークを提案する。
提案モデルでは,コビッド19病の同定と識別に塚本神経ファジィ推論ネットワークを用いている。
提案したモデルは精度98.51%、感度98.35%、特異度98.08%、F1スコア98.17%を達成する。
論文 参考訳(メタデータ) (2023-05-17T17:55:45Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Breast Cancer Histopathology Image based Gene Expression Prediction
using Spatial Transcriptomics data and Deep Learning [3.583756449759971]
本稿では,病理組織像から遺伝子発現を予測するためのディープラーニングフレームワークBrST-Netを提案する。
我々は,250遺伝子の予測に事前訓練した重みを使わずに10種類の最先端ディープラーニングモデルを訓練し,評価した。
本手法は,0.50以上の正相関係数を持つ24遺伝子を含む237遺伝子を同定し,過去の研究より優れていた。
論文 参考訳(メタデータ) (2023-03-17T14:03:40Z) - Multi-view information fusion using multi-view variational autoencoders
to predict proximal femoral strength [6.431560548938618]
本研究の目的は,多視点情報融合を用いた大腿骨近位部強度予測のための深層学習モデルの設計である。
特徴表現学習のための多視点変分オートエンコーダ(MVAE)と多視点情報融合のための専門家モデル(PoE)を用いた新しいモデルを開発した。
論文 参考訳(メタデータ) (2022-10-03T01:31:34Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Hybrid quantum convolutional neural networks model for COVID-19
prediction using chest X-Ray images [13.094997642327371]
早期診断を支援するには、正確なパフォーマンスを備えた胸部X線(CXR)画像を介してCOVID-19を予測するモデルが必要です。
本稿では、ハイブリッド量子古典畳み込みニューラルネットワーク(HQCNN)モデルを用いて、ランダム量子回路(RQC)を用いてCOVID-19患者を検出する。
提案するhqcnnモデルは, 98.4%の精度と99.3%の感度で, 高い性能を達成した。
論文 参考訳(メタデータ) (2021-02-08T18:22:53Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。