論文の概要: Weakly Supervised PET Tumor Detection Using Class Response
- arxiv url: http://arxiv.org/abs/2003.08337v2
- Date: Thu, 19 Mar 2020 08:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:59:26.384087
- Title: Weakly Supervised PET Tumor Detection Using Class Response
- Title(参考訳): クラス応答を用いた軽度PET腫瘍検出
- Authors: Amine Amyar, Romain Modzelewski, Pierre Vera, Vincent Morard, and Su
Ruan
- Abstract要約: ポジトロン・エミッション・トモグラフィー (PET) 画像において, 画像レベルでのクラスラベルのみを用いて, 病変の種類を同定する新しい手法を提案する。
提案手法の利点は,PET画像の2次元像のみを用いて3次元画像中の腫瘍の体積全体を検出することであり,非常に有望な結果を示すことである。
- 参考スコア(独自算出の注目度): 3.947298454012977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most challenges in medical imaging is the lack of data and
annotated data. It is proven that classical segmentation methods such as U-NET
are useful but still limited due to the lack of annotated data. Using a weakly
supervised learning is a promising way to address this problem, however, it is
challenging to train one model to detect and locate efficiently different type
of lesions due to the huge variation in images. In this paper, we present a
novel approach to locate different type of lesions in positron emission
tomography (PET) images using only a class label at the image-level. First, a
simple convolutional neural network classifier is trained to predict the type
of cancer on two 2D MIP images. Then, a pseudo-localization of the tumor is
generated using class activation maps, back-propagated and corrected in a
multitask learning approach with prior knowledge, resulting in a tumor
detection mask. Finally, we use the mask generated from the two 2D images to
detect the tumor in the 3D image. The advantage of our proposed method consists
of detecting the whole tumor volume in 3D images, using only two 2D images of
PET image, and showing a very promising results. It can be used as a tool to
locate very efficiently tumors in a PET scan, which is a time-consuming task
for physicians. In addition, we show that our proposed method can be used to
conduct a radiomics study with state of the art results.
- Abstract(参考訳): 医用画像の最大の課題の1つは、データと注釈付きデータの欠如である。
u-netのような古典的なセグメンテーション手法は有用であるが、注釈付きデータの欠如により制限されていることが証明されている。
弱い教師付き学習を使うことは,この問題に対処する上で有望な方法であるが,画像の変動が大きいため,一つのモデルで異なる種類の病変を効率的に検出・発見する訓練を行うことは困難である。
本稿では,ポジトロン・エミッション・トモグラフィー(PET)画像において,画像レベルでのクラスラベルのみを用いて,異なる種類の病変を特定する手法を提案する。
まず、単純な畳み込みニューラルネットワーク分類器を訓練し、2次元MIP画像上で癌の種類を予測する。
そして、予め知識のあるマルチタスク学習アプローチでバックプロパゲーションされ修正されたクラスアクティベーションマップを使用して、腫瘍の擬似局在を生成し、腫瘍検出マスクを生成する。
最後に,2次元画像から生成したマスクを用いて3次元画像中の腫瘍を検出する。
提案手法の利点は,PET画像の2次元像のみを用いて3次元画像中の腫瘍体積全体を検出することであり,非常に有望な結果を示すことである。
PETスキャンで非常に効率的な腫瘍を見つけるためのツールとして使用できるが、これは医師にとって時間を要する作業である。
また,提案手法は,その成果を活かして放射線検査を行うことができることを示した。
関連論文リスト
- Unsupervised Tumor-Aware Distillation for Multi-Modal Brain Image Translation [8.380597715285237]
教師なしマルチモーダル脳画像翻訳は広く研究されている。
既存の方法は翻訳中の脳腫瘍の変形の問題に悩まされている。
UTAD-Netと呼ばれる教師なしの腫瘍対応蒸留教員ネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T13:35:37Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - A Novel Framework for Brain Tumor Detection Based on Convolutional
Variational Generative Models [6.726255259929498]
本稿では,脳腫瘍の検出と分類のための新しい枠組みを提案する。
提案フレームワークは、全体的な検出精度96.88%を取得する。
提案されたフレームワークは,脳腫瘍の正確な検出システムとして期待されている。
論文 参考訳(メタデータ) (2022-02-20T16:14:01Z) - Triplet Contrastive Learning for Brain Tumor Classification [99.07846518148494]
本稿では,脳腫瘍の深層埋め込みを直接学習する手法を提案する。
本手法は,27種類の腫瘍群からなる広範囲な脳腫瘍データセットを用いて評価し,そのうち13種は稀である。
論文 参考訳(メタデータ) (2021-08-08T11:26:34Z) - Deep Learning models for benign and malign Ocular Tumor Growth
Estimation [3.1558405181807574]
臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
論文 参考訳(メタデータ) (2021-07-09T05:40:25Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - RADIOGAN: Deep Convolutional Conditional Generative adversarial Network
To Generate PET Images [3.947298454012977]
MIPポジトロン放射トモグラフィー画像(PET)を生成するための深層畳み込み条件生成対向ネットワークを提案する。
提案手法の利点は,1種類の病変に対して,小さな標本サイズで訓練した病変の異なるクラスを生成できるモデルから成り立っている。
また,画像評価ツールとして,潜伏空間を歩行できることを示す。
論文 参考訳(メタデータ) (2020-03-19T10:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。