論文の概要: Bag of Visual Words (BoVW) with Deep Features -- Patch Classification
Model for Limited Dataset of Breast Tumours
- arxiv url: http://arxiv.org/abs/2202.10701v1
- Date: Tue, 22 Feb 2022 07:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:32:46.714677
- Title: Bag of Visual Words (BoVW) with Deep Features -- Patch Classification
Model for Limited Dataset of Breast Tumours
- Title(参考訳): 深い特徴を持つ視覚単語(BoVW)の袋-乳房腫瘍の限られたデータセットに対するパッチ分類モデル
- Authors: Suvidha Tripathi, Satish Kumar Singh and Lee Hwee Kuan
- Abstract要約: Bag of Visual Words (BoVW) は機能セレクタとして使われ、CNNの機能の中でほとんどの識別機能を選択する。
パイプラインは、識別パッチを選択するためにパッチ予測の後処理を必要としないため、エンドツーエンドである。
- 参考スコア(独自算出の注目度): 11.731001328350985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Currently, the computational complexity limits the training of high
resolution gigapixel images using Convolutional Neural Networks. Therefore,
such images are divided into patches or tiles. Since, these high resolution
patches are encoded with discriminative information therefore; CNNs are trained
on these patches to perform patch-level predictions. However, the problem with
patch-level prediction is that pathologist generally annotates at image-level
and not at patch level. Due to this limitation most of the patches may not
contain enough class-relevant features. Through this work, we tried to
incorporate patch descriptive capability within the deep framework by using Bag
of Visual Words (BoVW) as a kind of regularisation to improve generalizability.
Using this hypothesis, we aim to build a patch based classifier to discriminate
between four classes of breast biopsy image patches (normal, benign, \textit{In
situ} carcinoma, invasive carcinoma). The task is to incorporate quality deep
features using CNN to describe relevant information in the images while
simultaneously discarding irrelevant information using Bag of Visual Words
(BoVW). The proposed method passes patches obtained from WSI and microscopy
images through pre-trained CNN to extract features. BoVW is used as a feature
selector to select most discriminative features among the CNN features.
Finally, the selected feature sets are classified as one of the four classes.
The hybrid model provides flexibility in terms of choice of pre-trained models
for feature extraction. The pipeline is end-to-end since it does not require
post processing of patch predictions to select discriminative patches. We
compared our observations with state-of-the-art methods like ResNet50,
DenseNet169, and InceptionV3 on the BACH-2018 challenge dataset. Our proposed
method shows better performance than all the three methods.
- Abstract(参考訳): 現在、計算複雑性は畳み込みニューラルネットワークを用いた高解像度ギガピクセル画像のトレーニングを制限する。
そのため、これらの画像はパッチまたはタイルに分割される。
そのため、これらの高解像度パッチは識別情報で符号化され、CNNはパッチレベルの予測を行うためにこれらのパッチで訓練される。
しかし、パッチレベルの予測の問題は、病理学者が一般的にパッチレベルでではなくイメージレベルで注釈を付けることである。
この制限のため、ほとんどのパッチには十分なクラス関連機能が含まれない可能性がある。
本研究では,Bag of Visual Words (BoVW) を一般化性向上のための正規化の一種として利用することにより,ディープフレームワークにパッチ記述機能を組み込もうとした。
この仮説を用いて,乳腺生検画像パッチ(正常,良性,textit{in situ}癌,浸潤癌)の4種類を識別するパッチベース分類器の構築を目指している。
タスクは、CNNを使って画像内の関連情報を記述し、同時にBag of Visual Words (BoVW)を使って関連のない情報を破棄する。
提案手法は,wsiおよび顕微鏡画像から得られたパッチをcnnで事前学習し,特徴を抽出する。
bovwはcnnの機能の中で最も識別的な特徴を選択するための機能セレクタとして使用される。
最後に、選択された特徴集合を4つのクラスのうちの1つに分類する。
ハイブリッドモデルは、特徴抽出のための事前訓練されたモデルの選択の観点から柔軟性を提供する。
パイプラインは、識別パッチを選択するためにパッチ予測の後処理を必要としないため、エンドツーエンドである。
我々は、BACH-2018チャレンジデータセット上のResNet50、DenseNet169、InceptionV3といった最先端の手法と比較した。
提案手法は3つの手法よりも優れた性能を示す。
関連論文リスト
- Efficient Classification of Histopathology Images [5.749787074942512]
腫瘍領域を付加した画像を用いて,腫瘍のパッチセットと良性パッチセットを癌スライドで同定した。
これはパッチレベルの分類において重要な問題となり、"cancerous"とラベル付けされた画像からのパッチの大部分は実際には腫瘍のないものである。
論文 参考訳(メタデータ) (2024-09-08T17:41:04Z) - Boosting Vision-Language Models for Histopathology Classification: Predict all at once [11.644118356081531]
病理組織学における視覚言語モデルへのトランスダクティブアプローチを提案する。
私たちのアプローチは非常に効率的で、ほんの数秒で105ドルのパッチを処理します。
論文 参考訳(メタデータ) (2024-09-03T13:24:12Z) - Semi-supervised 3D Object Detection with PatchTeacher and PillarMix [71.4908268136439]
現在の半教師付き3Dオブジェクト検出法では、教師が学生に擬似ラベルを生成するのが一般的である。
学生に高品質な擬似ラベルを提供するために,部分的なシーン3Dオブジェクト検出に焦点を当てたPatchTeacherを提案する。
本稿では,PatchTeacherの性能向上のために,Patch Normalizer,Quadrant Align,Fovea Selectionの3つの重要なテクニックを紹介する。
論文 参考訳(メタデータ) (2024-07-13T06:58:49Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Hardwiring ViT Patch Selectivity into CNNs using Patch Mixing [64.7892681641764]
我々は視覚変換器(ViT)と畳み込みニューラルネットワーク(CNN)を訓練する
Patch Mixingを用いたトレーニングでは,ViTは改善も劣化もしないことがわかった。
我々は、このトレーニング手法が、VTがすでに持っている能力をCNNでシミュレートする方法であると結論付けている。
論文 参考訳(メタデータ) (2023-06-30T17:59:53Z) - DBAT: Dynamic Backward Attention Transformer for Material Segmentation
with Cross-Resolution Patches [8.812837829361923]
クロスレゾリューション特徴を集約する動的後方アテンション変換器(DBAT)を提案する。
実験の結果,DBATの精度は86.85%であり,最先端のリアルタイムモデルの中では最高の性能であることがわかった。
さらに,提案モデルが他の手法よりも優れた材料関連特徴を抽出できることを示すため,セマンティックなラベルにアライメントし,ネットワーク分割を行う。
論文 参考訳(メタデータ) (2023-05-06T03:47:20Z) - CEC-CNN: A Consecutive Expansion-Contraction Convolutional Network for
Very Small Resolution Medical Image Classification [0.8108972030676009]
深層・中層・浅層からのマルチスケール特徴を保存できる新しいCNNアーキテクチャを提案する。
膵管腺癌(PDAC)CTの超低解像度パッチのデータセットを用いて,我々のネットワークが最先端のアートモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-09-27T20:01:12Z) - HIPA: Hierarchical Patch Transformer for Single Image Super Resolution [62.7081074931892]
本稿では,階層型パッチ分割を用いた高解像度画像を段階的に復元する新しいトランスフォーマーアーキテクチャHIPAを提案する。
入力画像を複数のステージで処理するカスケードモデルを構築し、小さなパッチサイズでトークンから始めて、徐々に全解像度にマージします。
このような階層的なパッチ機構は、複数の解像度で機能集約を可能にするだけでなく、異なる画像領域に対するパッチ認識機能も適応的に学習する。
論文 参考訳(メタデータ) (2022-03-19T05:09:34Z) - Convolution-Free Medical Image Segmentation using Transformers [8.130670465411239]
近接する画像パッチ間の自己注意に基づく別の手法が,競争的あるいはよりよい結果が得られることを示す。
提案モデルにより,3つのデータセット上でのCNNの状態よりも優れたセグメンテーション精度が得られることを示す。
論文 参考訳(メタデータ) (2021-02-26T18:49:13Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Rethinking Generative Zero-Shot Learning: An Ensemble Learning
Perspective for Recognising Visual Patches [52.67723703088284]
我々はMPGAN(Multi-patch Generative Adversarial Nets)と呼ばれる新しいフレームワークを提案する。
MPGANは、新しい重み付き投票戦略で、ローカルパッチ機能とラベルが見えないクラスを合成する。
MPGANは最先端の手法よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-07-27T05:49:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。