論文の概要: Time-distance vision transformers in lung cancer diagnosis from
longitudinal computed tomography
- arxiv url: http://arxiv.org/abs/2209.01676v1
- Date: Sun, 4 Sep 2022 19:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:32:17.323997
- Title: Time-distance vision transformers in lung cancer diagnosis from
longitudinal computed tomography
- Title(参考訳): 縦型ctによる肺癌診断における経時的視野トランスフォーマ
- Authors: Thomas Z. Li, Kaiwen Xu, Riqiang Gao, Yucheng Tang, Thomas A. Lasko,
Fabien Maldonado, Kim Sandler, Bennett A. Landman
- Abstract要約: 縦断的医療画像は、データ取得において、スパース、不規則な時間間隔というユニークな課題を提示する。
本研究では、連続時間のベクトル埋め込みと時間強調モデルを用いて、自己注意重みを拡大する時間距離視覚変換器(ViT)の2つの解釈を提案する。
この研究は、縦断的医療画像の分類のための最初の自己注意に基づくフレームワークである。
- 参考スコア(独自算出の注目度): 4.924544172166966
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Features learned from single radiologic images are unable to provide
information about whether and how much a lesion may be changing over time.
Time-dependent features computed from repeated images can capture those changes
and help identify malignant lesions by their temporal behavior. However,
longitudinal medical imaging presents the unique challenge of sparse, irregular
time intervals in data acquisition. While self-attention has been shown to be a
versatile and efficient learning mechanism for time series and natural images,
its potential for interpreting temporal distance between sparse, irregularly
sampled spatial features has not been explored. In this work, we propose two
interpretations of a time-distance vision transformer (ViT) by using (1) vector
embeddings of continuous time and (2) a temporal emphasis model to scale
self-attention weights. The two algorithms are evaluated based on benign versus
malignant lung cancer discrimination of synthetic pulmonary nodules and lung
screening computed tomography studies from the National Lung Screening Trial
(NLST). Experiments evaluating the time-distance ViTs on synthetic nodules show
a fundamental improvement in classifying irregularly sampled longitudinal
images when compared to standard ViTs. In cross-validation on screening chest
CTs from the NLST, our methods (0.785 and 0.786 AUC respectively) significantly
outperform a cross-sectional approach (0.734 AUC) and match the discriminative
performance of the leading longitudinal medical imaging algorithm (0.779 AUC)
on benign versus malignant classification. This work represents the first
self-attention-based framework for classifying longitudinal medical images. Our
code is available at https://github.com/tom1193/time-distance-transformer.
- Abstract(参考訳): 単一のX線画像から得られた特徴は、時間とともに病変がどの程度変化しているかに関する情報を提供することができない。
繰り返し画像から計算される時間依存的特徴は、これらの変化を捉え、時間的行動によって悪性病変を識別するのに役立つ。
しかし、縦型医用イメージングは、データ取得における不規則な時間間隔のばらばらさという独特の課題を示している。
自己注意は時系列と自然画像の汎用的で効率的な学習メカニズムであることが示されているが、スパースと不規則にサンプリングされた空間的特徴の間の時間的距離を解釈する能力は研究されていない。
本研究では,(1)連続時間のベクトル埋め込みと(2)自己注意重みを拡大する時間強調モデルを用いて,時間依存型視覚変換器(ViT)の2つの解釈を提案する。
この2つのアルゴリズムは, 合成肺結節の良性と悪性肺がんの鑑別と, NLST(National Lung Screening Trial)による肺検診による肺検診の結果に基づいて評価された。
合成結節上での時間依存性ViTの評価実験は、標準ViTと比較して不規則サンプル長手画像の分類において根本的な改善が見られた。
nlstから胸部ctをスクリーニングする際のクロスバリデーション(0.785 aucと0.786 auc)は横断的アプローチ(0.734 auc)を著しく上回り,良性と悪性の鑑別において先行する縦型医用画像法(0.779 auc)の判別性能と一致した。
この研究は、縦断的医療画像の分類のための最初の自己注意に基づくフレームワークである。
私たちのコードはhttps://github.com/tom1193/time-distance-transformerで利用可能です。
関連論文リスト
- st-DTPM: Spatial-Temporal Guided Diffusion Transformer Probabilistic Model for Delayed Scan PET Image Prediction [6.812140684449128]
いくつかの研究によると、二重時間PET画像は悪性腫瘍と良性腫瘍を区別する可能性を秘めている。
両時間PET画像予測問題を解くために, 時空間誘導拡散変換器確率モデル(st-DTPM)を提案する。
論文 参考訳(メタデータ) (2024-10-30T06:37:55Z) - Longitudinal Segmentation of MS Lesions via Temporal Difference Weighting [2.0168790328644697]
本稿では,ベースラインとフォローアップスキャンの時間的差を,差分重みブロックと呼ばれるユニークなアーキテクチャ的帰納バイアスによって明示的に取り込む新しい手法を提案する。
本研究は,2つのデータセットにまたがる最先端の縦・単点モデルと比較して,病変のセグメンテーションおよび病変検出において優れたスコアを得る。
論文 参考訳(メタデータ) (2024-09-20T11:30:54Z) - Harnessing the power of longitudinal medical imaging for eye disease prognosis using Transformer-based sequence modeling [49.52787013516891]
今回提案した Longitudinal Transformer for Survival Analysis (LTSA, Longitudinal Transformer for Survival Analysis, LTSA) は, 縦断的医用画像から動的疾患の予後を予測できる。
時間的注意分析により、最新の画像は典型的には最も影響力のあるものであるが、以前の画像は追加の予後に価値があることが示唆された。
論文 参考訳(メタデータ) (2024-05-14T17:15:28Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - Longitudinal Multimodal Transformer Integrating Imaging and Latent
Clinical Signatures From Routine EHRs for Pulmonary Nodule Classification [4.002181247287472]
単発性肺結節(SPN)分類におけるERHからの経時的臨床所見とリピート画像を統合するためのトランスフォーマーベースのマルチモーダル戦略を提案する。
臨床症状の非観血的非観血的切り離しを行ない, 時間依存性の自己注意を利用して, 臨床症状の表現と胸部CTスキャンから共同学習を行った。
論文 参考訳(メタデータ) (2023-04-06T03:03:07Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Single volume lung biomechanics from chest computed tomography using a
mode preserving generative adversarial network [10.406580531987418]
単一のCTスキャンから直接局所組織拡張を推定するための生成的対向学習手法を提案する。
提案手法はSPIROMICSコホートから2500名の被験者を対象に訓練,評価を行った。
提案モデルでは,PSNR18.95デシベル,SSIM0.840,スピアマン相関0.61,高分解能1mm3で達成した。
論文 参考訳(メタデータ) (2021-10-15T06:17:52Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。