論文の概要: An End-to-End Breast Tumour Classification Model Using Context-Based
Patch Modelling- A BiLSTM Approach for Image Classification
- arxiv url: http://arxiv.org/abs/2106.02864v1
- Date: Sat, 5 Jun 2021 10:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:27:06.271012
- Title: An End-to-End Breast Tumour Classification Model Using Context-Based
Patch Modelling- A BiLSTM Approach for Image Classification
- Title(参考訳): コンテキストベースパッチモデルを用いた末期乳腺腫瘍分類モデル-画像分類のためのbilstmアプローチ
- Authors: Suvidha Tripathi, Satish Kumar Singh, Hwee Kuan Lee
- Abstract要約: 我々は, この関係を, 特定の腫瘍領域から抽出したパッチ間の特徴に基づく相関関係と統合しようと試みている。
我々は、顕微鏡画像とWSI腫瘍領域の2つのデータセットでモデルをトレーニングし、テストした。
CNN機能付きBiLSTMは、パッチをエンドツーエンドの画像分類ネットワークにモデル化する上で、はるかに優れた性能を示した。
- 参考スコア(独自算出の注目度): 19.594639581421422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Researchers working on computational analysis of Whole Slide Images (WSIs) in
histopathology have primarily resorted to patch-based modelling due to large
resolution of each WSI. The large resolution makes WSIs infeasible to be fed
directly into the machine learning models due to computational constraints.
However, due to patch-based analysis, most of the current methods fail to
exploit the underlying spatial relationship among the patches. In our work, we
have tried to integrate this relationship along with feature-based correlation
among the extracted patches from the particular tumorous region. For the given
task of classification, we have used BiLSTMs to model both forward and backward
contextual relationship. RNN based models eliminate the limitation of sequence
size by allowing the modelling of variable size images within a deep learning
model. We have also incorporated the effect of spatial continuity by exploring
different scanning techniques used to sample patches. To establish the
efficiency of our approach, we trained and tested our model on two datasets,
microscopy images and WSI tumour regions. After comparing with contemporary
literature we achieved the better performance with accuracy of 90% for
microscopy image dataset. For WSI tumour region dataset, we compared the
classification results with deep learning networks such as ResNet, DenseNet,
and InceptionV3 using maximum voting technique. We achieved the highest
performance accuracy of 84%. We found out that BiLSTMs with CNN features have
performed much better in modelling patches into an end-to-end Image
classification network. Additionally, the variable dimensions of WSI tumour
regions were used for classification without the need for resizing. This
suggests that our method is independent of tumour image size and can process
large dimensional images without losing the resolution details.
- Abstract(参考訳): 病理組織学における全スライド画像(WSI)の計算解析に取り組んでいる研究者は、それぞれのWSIの解像度が大きいため、主にパッチベースのモデリングに頼っている。
大きな解像度は、計算上の制約のため、WSIを機械学習モデルに直接入力することができない。
しかし、パッチベースの分析により、現在の手法の多くはパッチ間の空間的関係を活用できていない。
本研究は, この関係を, 特定の腫瘍領域から抽出したパッチ間の特徴に基づく相関関係と統合する試みである。
分類作業では,前向きと後向きの文脈関係をモデル化するためにBiLSTMを用いた。
RNNベースのモデルは、ディープラーニングモデル内の可変サイズ画像のモデリングを可能にすることにより、シーケンスサイズを制限する。
また,パッチのサンプリングに使用する異なる走査法を探索することにより,空間連続性の影響も考慮した。
アプローチの効率性を確立するため、我々は2つのデータセット、顕微鏡画像とWSI腫瘍領域でモデルをトレーニングし、テストした。
現代の文献と比較すると,顕微鏡画像データセットでは90%の精度で精度が向上した。
WSI tumour region データセットでは,最大投票手法を用いて分類結果を ResNet,DenseNet,InceptionV3 などのディープラーニングネットワークと比較した。
最高性能の84%を達成しました。
CNN機能付きBiLSTMは、パッチをエンドツーエンドの画像分類ネットワークにモデル化する上で、はるかに優れた性能を示した。
また, WSI 腫瘍領域の変動次元は, 再サイズ化を必要とせず, 分類に利用した。
このことから,本手法は腫瘍の大きさに依存しず,解像度の詳細を失うことなく大きな次元画像を処理できることが示唆された。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Strong Baseline and Bag of Tricks for COVID-19 Detection of CT Scans [2.696776905220987]
従来のディープラーニングフレームワークは、CT画像のスライス数や解像度の変化によって互換性の問題に直面する。
この制限に対処するために,各CTデータセットに対して新しいスライス選択法を提案する。
上記の方法に加えて、様々な高性能分類モデルについて検討し、最終的には有望な結果を得る。
論文 参考訳(メタデータ) (2023-03-15T09:52:28Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Dual Attention Model with Reinforcement Learning for Classification of Histology Whole-Slide Images [8.404881822414898]
デジタル全スライド画像(WSI)は一般に顕微鏡分解能で撮影され、広い空間データを包含する。
本稿では,病理医の視覚検査に触発された2つの主成分からなる新しい二重注意アプローチを提案する。
提案手法は,WSIの10%未満を高い倍率で処理しながら,最先端の手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-02-19T22:26:25Z) - Multiclass Semantic Segmentation to Identify Anatomical Sub-Regions of
Brain and Measure Neuronal Health in Parkinson's Disease [2.288652563296735]
現在、脳の解剖下領域を分析して2次元の組織像を分析する機械学習モデルは利用できない。
本研究では,Nissl/HaematoxylinおよびTyrosine hydroxylase酵素(TH,ドーパミン作動性ニューロンの生存率の指標)で染色した約1000個のアノテート2次元脳画像を用いて,ベストフィットモデルを訓練した。
このモデルは、すべての画像において2つのサブリージョンコンパクト(SNCD)とレチキュラタ(SNr)を効果的に検出できる。
論文 参考訳(メタデータ) (2023-01-07T19:35:28Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。