論文の概要: Spatiotemporal Feature Learning Based on Two-Step LSTM and Transformer
for CT Scans
- arxiv url: http://arxiv.org/abs/2207.01579v1
- Date: Mon, 4 Jul 2022 16:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 17:02:21.004465
- Title: Spatiotemporal Feature Learning Based on Two-Step LSTM and Transformer
for CT Scans
- Title(参考訳): 2段階LSTMと変圧器を用いたCTスキャンのための時空間特徴学習
- Authors: Chih-Chung Hsu, Chi-Han Tsai, Guan-Lin Chen, Sin-Di Ma, Shen-Chieh Tai
- Abstract要約: 我々は、新型コロナウイルスの症状分類を徹底的に行うための、新しい、効果的、2段階のアプローチを提案する。
まず,従来のバックボーンネットワークにより,CTスキャンにおける各スライスの意味的特徴埋め込みを抽出する。
そこで我々は,時間的特徴学習を扱うために,LSTMとTransformerベースのサブネットワークを提案する。
- 参考スコア(独自算出の注目度): 2.3682456328966115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed tomography (CT) imaging could be very practical for diagnosing
various diseases. However, the nature of the CT images is even more diverse
since the resolution and number of the slices of a CT scan are determined by
the machine and its settings. Conventional deep learning models are hard to
tickle such diverse data since the essential requirement of the deep neural
network is the consistent shape of the input data. In this paper, we propose a
novel, effective, two-step-wise approach to tickle this issue for COVID-19
symptom classification thoroughly. First, the semantic feature embedding of
each slice for a CT scan is extracted by conventional backbone networks. Then,
we proposed a long short-term memory (LSTM) and Transformer-based sub-network
to deal with temporal feature learning, leading to spatiotemporal feature
representation learning. In this fashion, the proposed two-step LSTM model
could prevent overfitting, as well as increase performance. Comprehensive
experiments reveal that the proposed two-step method not only shows excellent
performance but also could be compensated for each other. More specifically,
the two-step LSTM model has a lower false-negative rate, while the 2-step Swin
model has a lower false-positive rate. In summary, it is suggested that the
model ensemble could be adopted for more stable and promising performance in
real-world applications.
- Abstract(参考訳): CTは様々な疾患の診断に有用である。
しかし、CTスキャンの解像度とスライス数は、マシンとその設定によって決定されるので、CT画像の性質はさらに多様である。
ディープニューラルネットワークの必須要件は入力データの一貫性のある形状であるため、従来のディープラーニングモデルはこのような多様なデータをくすぐるのは難しい。
本稿では,新型コロナウイルスの症状分類を徹底的に行うための,新規で効果的な2段階的アプローチを提案する。
まず,従来のバックボーンネットワークにより,CTスキャンにおける各スライスの意味的特徴埋め込みを抽出する。
そして、時間的特徴学習に対処するため、長期記憶(LSTM)とトランスフォーマーベースのサブネットワークを提案し、時空間特徴表現学習を実現した。
この方法では、2段階のLSTMモデルではオーバーフィットが防止され、性能が向上する。
総合実験の結果,提案手法は優れた性能を示すだけでなく,相互に補償できることがわかった。
具体的には、2段階のLSTMモデルは偽陰性率が低く、2段階のSwinモデルは偽陽性率が低い。
要約すると、モデルアンサンブルは現実のアプリケーションにおいてより安定的で有望な性能に応用できる可能性が示唆されている。
関連論文リスト
- PEMMA: Parameter-Efficient Multi-Modal Adaptation for Medical Image Segmentation [5.056996354878645]
CTとPETの両方のスキャンが利用可能であれば、それらをセグメンテーションモデルへの入力の2つのチャネルとして組み合わせることが一般的である。
この方法は、トレーニングと推論の両方のスキャンタイプを必要とし、PETスキャンの可用性が制限されているため、課題を提起する。
変圧器を用いたセグメンテーションモデルの軽量アップグレードのためのパラメータ効率・マルチモーダル適応フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T16:29:49Z) - A Closer Look at Spatial-Slice Features Learning for COVID-19 Detection [8.215897530386343]
我々は,CTスキャンに特化して設計されたSpatial-Slice Feature Learning (SSFL++) フレームワークを提案する。
本研究の目的は,全CTスキャンでOODデータをフィルタリングし,70%の冗長性を完全に低減し,解析のための重要な空間スライスを選択することである。
実験では、トレーニングデータの1%しか持たない単純なE2D(EfficientNet-2D)モデルを用いて、我々のモデルの有望な性能を実証した。
論文 参考訳(メタデータ) (2024-04-02T05:19:27Z) - Simple 2D Convolutional Neural Network-based Approach for COVID-19 Detection [8.215897530386343]
本研究では,肺CT画像解析におけるディープラーニング技術の利用について検討した。
我々は,CTスキャンに適した高度な空間スライス特徴学習(SSFL++)フレームワークを提案する。
本研究の目的は,CTスキャン全体のアウト・オブ・ディストリビューション(OOD)データをフィルタリングし,データ冗長性を70%削減して解析に不可欠な空間スライス特徴を選択することである。
論文 参考訳(メタデータ) (2024-03-17T14:34:51Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Strong Baseline and Bag of Tricks for COVID-19 Detection of CT Scans [2.696776905220987]
従来のディープラーニングフレームワークは、CT画像のスライス数や解像度の変化によって互換性の問題に直面する。
この制限に対処するために,各CTデータセットに対して新しいスライス選択法を提案する。
上記の方法に加えて、様々な高性能分類モデルについて検討し、最終的には有望な結果を得る。
論文 参考訳(メタデータ) (2023-03-15T09:52:28Z) - A Light-weight CNN Model for Efficient Parkinson's Disease Diagnostics [1.382077805849933]
提案モデルは,時系列信号の特性を適応させるために,畳み込みニューラルネットワーク(CNN)から短期記憶(LSTM)へと変換される。
実験結果から,提案モデルでは,パラメータや操作がはるかに少ない複数の評価指標に対して,高品質な診断結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-02-02T09:49:07Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。