論文の概要: Organ-Aware Attention Improves CT Triage and Classification
- arxiv url: http://arxiv.org/abs/2601.13385v1
- Date: Mon, 19 Jan 2026 20:37:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.056926
- Title: Organ-Aware Attention Improves CT Triage and Classification
- Title(参考訳): 臓器認識によるCTトリアージと分類の改善
- Authors: Lavsen Dahal, Yubraj Bhandari, Geoffrey D. Rubin, Joseph Y. Lo,
- Abstract要約: 市販のビジョン言語モデルは、3D解剖、プロトコルシフト、ノイズの多いレポート管理に苦しむ。
本研究は,CT-RATEとRADCHEST-CTの2つの胸部CTデータセットを用いた。
本稿では,Organ-Masked AttentionとOrgan-Scalar Fusionを組み合わせたエンコーダに依存しない臓器認識ヘッドORACLE-CTを提案する。
- 参考スコア(独自算出の注目度): 0.7901846308308808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an urgent need for triage and classification of high-volume medical imaging modalities such as computed tomography (CT), which can improve patient care and mitigate radiologist burnout. Study-level CT triage requires calibrated predictions with localized evidence; however, off-the-shelf Vision Language Models (VLM) struggle with 3D anatomy, protocol shifts, and noisy report supervision. This study used the two largest publicly available chest CT datasets: CT-RATE and RADCHEST-CT (held-out external test set). Our carefully tuned supervised baseline (instantiated as a simple Global Average Pooling head) establishes a new supervised state of the art, surpassing all reported linear-probe VLMs. Building on this baseline, we present ORACLE-CT, an encoder-agnostic, organ-aware head that pairs Organ-Masked Attention (mask-restricted, per-organ pooling that yields spatial evidence) with Organ-Scalar Fusion (lightweight fusion of normalized volume and mean-HU cues). In the chest setting, ORACLE-CT masked attention model achieves AUROC 0.86 on CT-RATE; in the abdomen setting, on MERLIN (30 findings), our supervised baseline exceeds a reproduced zero-shot VLM baseline obtained by running publicly released weights through our pipeline, and adding masked attention plus scalar fusion further improves performance to AUROC 0.85. Together, these results deliver state-of-the-art supervised classification performance across both chest and abdomen CT under a unified evaluation protocol. The source code is available at https://github.com/lavsendahal/oracle-ct.
- Abstract(参考訳): CT (Computerd tomography) などの高容積医用画像モダリティのトリアージと分類が緊急に必要であり, 患者のケアを改善し, 放射線科医のバーンアウトを軽減できる。
研究レベルのCTトリアージは、局所的な証拠を伴う校正された予測を必要とするが、市販のビジョン言語モデル(VLM)は、3D解剖、プロトコルシフト、ノイズレポートの監視に苦しむ。
本研究は,CT-RATEとRADCHEST-CTの2つの胸部CTデータセットを用いた。
我々の注意深く調整されたベースライン(Global Average Pooling Headとして実証された)は、新しい監督された最先端技術を確立し、報告された全ての線形プローブVLMを上回っます。
このベースライン上に構築されたORACLE-CTは,Organ-Masked AttentionとOrgan-Scalar Fusion(正規化体積と平均HUキューの軽量融合)を組み合わせたエンコーダに依存しない臓器認識ヘッドである。
胸部設定では, ORACLE-CTマスク付き注意モデルによりCT-RATEのAUROC 0.86が達成され, MERLIN(30例)では, 教師付きベースラインがパイプライン内を公に放出した重みを再現したゼロショットVLMベースラインを超え, マスク付注意とスカラー融合によりAUROC 0.85の性能が向上する。
以上より, 胸腹部CTと胸部CTを併用し, 統一的評価プロトコルを施行した。
ソースコードはhttps://github.com/lavsendahal/oracle-ct.comから入手できる。
関連論文リスト
- A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - Myocardial Region-guided Feature Aggregation Net for Automatic Coronary artery Segmentation and Stenosis Assessment using Coronary Computed Tomography Angiography [13.885760158090692]
心筋領域誘導型特徴集約ネットは、冠状動脈セグメンテーションの堅牢性を高めるために、解剖学的事前知識を統合する新しいU字型二重エンコーダアーキテクチャである。
本フレームワークは,(1)ブリッジング拡張とマルチスケール機能融合による冠動脈領域への注意を誘導する心筋領域誘導モジュール,(2)並列空間チャネルの注意と残留ブロックを結合して局所的特徴識別を増強する残留特徴抽出モジュール,(3)階層的血管特徴の適応的アダプティブアグリゲーションのためのマルチスケール機能融合モジュールの3つの重要なイノベーションを取り入れている。
論文 参考訳(メタデータ) (2025-04-27T16:43:52Z) - High Accuracy Pulmonary Vessel Segmentation for Contrast and Non-contrast CT Images and Clinical Evaluation [7.2151442883882]
造影CT画像と非造影CT画像から肺血管の自動分画を行うための3次元画像分画アルゴリズムを提案する。
我々は、複数のベンダーや国から427セットの高精度CTデータを用いてモデルを訓練し、NCCTデータに対して0.892, 0.861, 0.924, 0.925, 0.903, 0.949のCl-DICE, Cl-リコールおよびリコール値を得た。
論文 参考訳(メタデータ) (2025-03-21T09:54:42Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - Are Macula or Optic Nerve Head Structures better at Diagnosing Glaucoma?
An Answer using AI and Wide-Field Optical Coherence Tomography [48.7576911714538]
我々は3次元広視野CTスキャンで視神経頭部(ONH)と黄斑構造を自動的に分割する深層学習アルゴリズムを開発した。
分類アルゴリズムにより,ONHおよび黄斑組織を0.94$pm$0.003のDCで分画することができた。
これにより3次元広視野CTスキャンが主流となる可能性がある。
論文 参考訳(メタデータ) (2022-10-13T01:51:29Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - LIFE: A Generalizable Autodidactic Pipeline for 3D OCT-A Vessel
Segmentation [5.457168581192045]
最近のディープラーニングアルゴリズムは、有望な血管セグメンテーションの結果を生み出した。
しかし、手動による注記データがないため、3D網膜血管セグメンテーションは依然として困難である。
自己合成モダリティのみによって教師される学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T07:51:33Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。