論文の概要: Convolutional-LSTM for Multi-Image to Single Output Medical Prediction
- arxiv url: http://arxiv.org/abs/2010.10004v1
- Date: Tue, 20 Oct 2020 04:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:12:20.379761
- Title: Convolutional-LSTM for Multi-Image to Single Output Medical Prediction
- Title(参考訳): マルチ画像から単一出力医療予測のための畳み込みLSTM
- Authors: Luis Leal, Marvin Castillo, Fernando Juarez, Erick Ramirez, Mildred
Aspuac, Diana Letona
- Abstract要約: 発展途上国の一般的なシナリオは、複数の理由からボリュームメタデータが失われることである。
ヒトの診断過程を模倣したマルチイメージから単一診断モデルを得ることが可能である。
- 参考スコア(独自算出の注目度): 55.41644538483948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical head CT-scan imaging has been successfully combined with deep
learning for medical diagnostics of head diseases and lesions[1]. State of the
art classification models and algorithms for this task usually are based on 3d
convolution layers for volumetric data on a supervised learning setting (1
input volume, 1 prediction per patient) or 2d convolution layers in a
supervised setting (1 input image, 1 prediction per image). However a very
common scenario in developing countries is to have the volume metadata lost due
multiple reasons for example formatting conversion in images (for example
.dicom to jpg), in this scenario the doctor analyses the collection of images
and then emits a single diagnostic for the patient (with possibly an unfixed
and variable number of images per patient) , this prevents it from being
possible to use state of the art 3d models, but also is not possible to convert
it to a supervised problem in a (1 image,1 diagnostic) setting because
different angles or positions of the images for a single patient may not
contain the disease or lesion. In this study we propose a solution for this
scenario by combining 2d convolutional[2] models with sequence models which
generate a prediction only after all images have been processed by the model
for a given patient \(i\), this creates a multi-image to single-diagnostic
setting \(y^i=f(x_1,x_2,..,x_n)\) where \(n\) may be different between
patients. The experimental results demonstrate that it is possible to get a
multi-image to single diagnostic model which mimics human doctor diagnostic
process: evaluate the collection of patient images and then use important
information in memory to decide a single diagnostic for the patient.
- Abstract(参考訳): medical head ct-scan imagingとdeep learningを組み合わせることで、頭部疾患と病変の診断に成功している[1]。
このタスクの最先端の分類モデルとアルゴリズムは、通常、教師付き学習設定(1入力ボリューム、1患者毎の予測)または教師付き設定(1入力画像、1イメージ毎の予測)の2d畳み込みレイヤ上のボリュームデータのための3d畳み込み層に基づいている。
However a very common scenario in developing countries is to have the volume metadata lost due multiple reasons for example formatting conversion in images (for example .dicom to jpg), in this scenario the doctor analyses the collection of images and then emits a single diagnostic for the patient (with possibly an unfixed and variable number of images per patient) , this prevents it from being possible to use state of the art 3d models, but also is not possible to convert it to a supervised problem in a (1 image,1 diagnostic) setting because different angles or positions of the images for a single patient may not contain the disease or lesion.
本研究では、2次元畳み込み[2]モデルと、すべての画像が与えられた患者のモデル \(i\) によって処理された後にのみ予測を生成するシーケンスモデルとを組み合わせることにより、このシナリオの解を提案し、この場合、患者間で \(n\) が異なる場合の、単一識別設定 \(y^i=f(x_1,x_2,..,x_n)\) に対する多重画像を生成する。
実験の結果,ヒトの診断プロセスを模倣したマルチイメージから単一診断モデルを得ることが可能であることが判明した。患者画像の収集を評価し,メモリ内の重要な情報を用いて患者に対する単一の診断を決定する。
関連論文リスト
- Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - MLC at HECKTOR 2022: The Effect and Importance of Training Data when
Analyzing Cases of Head and Neck Tumors using Machine Learning [0.9166327220922845]
本稿では,MICCAI 2022で行われたHECKTOR大挑戦の2022年版に対して,チームMLCが行った成果について述べる。
ポジトロン・エミッション・トモグラフィ(PET)とCT(CT)画像の解析は予後を診断するために提案されている。
論文 参考訳(メタデータ) (2022-11-30T09:04:27Z) - HealthyGAN: Learning from Unannotated Medical Images to Detect Anomalies
Associated with Human Disease [13.827062843105365]
現在の医療画像学における典型的な手法は、健康な被験者のみから診断モデルを導出することに集中している。
HealthyGANは、混合データセットから正常な画像のみに変換することを学習する。
1方向であるHealthyGANは、既存の未ペア画像から画像への変換方法のサイクル一貫性の要求を緩和する。
論文 参考訳(メタデータ) (2022-09-05T08:10:52Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。