論文の概要: STACT-Time: Spatio-Temporal Cross Attention for Cine Thyroid Ultrasound Time Series Classification
- arxiv url: http://arxiv.org/abs/2506.18172v1
- Date: Sun, 22 Jun 2025 21:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.788364
- Title: STACT-Time: Spatio-Temporal Cross Attention for Cine Thyroid Ultrasound Time Series Classification
- Title(参考訳): STACT-Time:Cinethyroid Ultrasound Time Series 分類のための時空間交差注意法
- Authors: Irsyad Adam, Tengyue Zhang, Shrayes Raman, Zhuyu Qiu, Brandon Taraku, Hexiang Feng, Sile Wang, Ashwath Radhachandran, Shreeram Athreya, Vedrana Ivezic, Peipei Ping, Corey Arnold, William Speier,
- Abstract要約: 甲状腺癌はアメリカ合衆国で最も多いがんの一つである。
近年のディープラーニングアプローチでは,リスク階層化の改善が試みられているが,米国のシネクリップが提供する時間的・空間的コンテキストの充実に失敗することが多い。
シンチロイド超音波時系列分類(STACT-Time)モデルに対する時空間交差注意法を提案する。
- 参考スコア(独自算出の注目度): 2.510842391292067
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Thyroid cancer is among the most common cancers in the United States. Thyroid nodules are frequently detected through ultrasound (US) imaging, and some require further evaluation via fine-needle aspiration (FNA) biopsy. Despite its effectiveness, FNA often leads to unnecessary biopsies of benign nodules, causing patient discomfort and anxiety. To address this, the American College of Radiology Thyroid Imaging Reporting and Data System (TI-RADS) has been developed to reduce benign biopsies. However, such systems are limited by interobserver variability. Recent deep learning approaches have sought to improve risk stratification, but they often fail to utilize the rich temporal and spatial context provided by US cine clips, which contain dynamic global information and surrounding structural changes across various views. In this work, we propose the Spatio-Temporal Cross Attention for Cine Thyroid Ultrasound Time Series Classification (STACT-Time) model, a novel representation learning framework that integrates imaging features from US cine clips with features from segmentation masks automatically generated by a pretrained model. By leveraging self-attention and cross-attention mechanisms, our model captures the rich temporal and spatial context of US cine clips while enhancing feature representation through segmentation-guided learning. Our model improves malignancy prediction compared to state-of-the-art models, achieving a cross-validation precision of 0.91 (plus or minus 0.02) and an F1 score of 0.89 (plus or minus 0.02). By reducing unnecessary biopsies of benign nodules while maintaining high sensitivity for malignancy detection, our model has the potential to enhance clinical decision-making and improve patient outcomes.
- Abstract(参考訳): 甲状腺癌はアメリカ合衆国で最も多いがんの一つである。
甲状腺結節は超音波(US)画像でしばしば検出され,FNA生検でさらなる評価が必要である。
その効果にもかかわらず、FNAはしばしば良性結節の不要な生検を引き起こし、患者の不快感と不安を引き起こす。
これを解決するために、アメリカ放射線医学大学甲状腺イメージングレポート・データシステム(TI-RADS)が、良性生検を減らすために開発された。
しかしながら、そのようなシステムは、オブザーバ間の可変性によって制限される。
近年のディープラーニングアプローチでは,リスク階層化の改善が試みられているが,ダイナミックなグローバル情報や,さまざまな視点における構造変化を含む,米国シネクリップの豊富な時間的・空間的コンテキストの活用には失敗することが多い。
本研究では,米国シネクリップからの画像特徴と,事前訓練されたモデルで自動生成されるセグメンテーションマスクの特徴を統合した,新しい表現学習フレームワークSTACT-Time(Spatio-Temporal Cross Attention for Cine Thyroid Ultrasound Time Series Classification)モデルを提案する。
自己注意と相互注意のメカニズムを活用することで,本モデルでは,セグメンテーション誘導学習による特徴表現の強化を図りながら,アメリカのシーンクリップの時間的・空間的コンテキストの豊かさを捉えた。
診断精度は0.91(プラスまたはマイナス0.02)、F1スコアは0.89(プラスまたはマイナス0.02)である。
良性結節の無用な生検を減らし,悪性度検出の感度を高く保ちながら臨床診断の精度を高め,患者の予後を改善する可能性がある。
関連論文リスト
- ONCOPILOT: A Promptable CT Foundation Model For Solid Tumor Evaluation [3.8763197858217935]
ONCOPILOTは、全身を覆う約7,500個のCTスキャンに基づいて訓練された、インタラクティブな放射線基礎モデルである。
ポイントクリックやバウンディングボックスのような視覚的なプロンプトを使って3D腫瘍のセグメンテーションを行い、最先端のモデルより優れています。
ONCOPILOTは測定プロセスを加速し、リーダー間のばらつきを低減する。
論文 参考訳(メタデータ) (2024-10-10T13:36:49Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Artificial-intelligence-based molecular classification of diffuse
gliomas using rapid, label-free optical imaging [59.79875531898648]
DeepGliomaは人工知能に基づく診断スクリーニングシステムである。
ディープグリオーマは、世界保健機関が成人型びまん性グリオーマ分類を定義するために使用する分子変化を予測することができる。
論文 参考訳(メタデータ) (2023-03-23T18:50:18Z) - Generative AI for Rapid Diffusion MRI with Improved Image Quality,
Reliability and Generalizability [3.6119644566822484]
我々は,Human Connectome Projectデータに基づいて訓練されたSwin UNEt Transformersモデルを用いて,dMRIの一般化復調を行う。
成人健常者におけるHCPデータを用いた超解像実験を行った。
高速拡散テンソル画像の精度と信頼性は,90秒のスキャン時間しか必要としない。
論文 参考訳(メタデータ) (2023-03-10T03:39:23Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。