論文の概要: CT-Bench: A Benchmark for Multimodal Lesion Understanding in Computed Tomography
- arxiv url: http://arxiv.org/abs/2602.14879v2
- Date: Thu, 19 Feb 2026 18:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.198314
- Title: CT-Bench: A Benchmark for Multimodal Lesion Understanding in Computed Tomography
- Title(参考訳): CT-Bench:CTにおけるマルチモーダル病変理解のためのベンチマーク
- Authors: Qingqing Zhu, Qiao Jin, Tejas S. Mathai, Yin Fang, Zhizheng Wang, Yifan Yang, Maame Sarfo-Gyamfi, Benjamin Hou, Ran Gu, Praveen T. S. Balamuralikrishna, Kenneth C. Wang, Ronald M. Summers, Zhiyong Lu,
- Abstract要約: CT-BenchはCTの病変解析のための第一種ベンチマークデータセットである
これは、境界ボックス、記述、サイズ情報を含む7,795のCT研究から20,335の病変と、病変の局在、記述、サイズ推定、属性分類を含む2,850のQAペアからなる視覚的質問応答ベンチマークを含む。
視覚言語および医療用CLIPの変種を含む最先端マルチモーダルモデルの評価を,放射線医学的評価との比較により行った。
- 参考スコア(独自算出の注目度): 16.912129516334783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) can automatically delineate lesions on computed tomography (CT) and generate radiology report content, yet progress is limited by the scarcity of publicly available CT datasets with lesion-level annotations. To bridge this gap, we introduce CT-Bench, a first-of-its-kind benchmark dataset comprising two components: a Lesion Image and Metadata Set containing 20,335 lesions from 7,795 CT studies with bounding boxes, descriptions, and size information, and a multitask visual question answering benchmark with 2,850 QA pairs covering lesion localization, description, size estimation, and attribute categorization. Hard negative examples are included to reflect real-world diagnostic challenges. We evaluate multiple state-of-the-art multimodal models, including vision-language and medical CLIP variants, by comparing their performance to radiologist assessments, demonstrating the value of CT-Bench as a comprehensive benchmark for lesion analysis. Moreover, fine-tuning models on the Lesion Image and Metadata Set yields significant performance gains across both components, underscoring the clinical utility of CT-Bench.
- Abstract(参考訳): 人工知能(AI)はCT(Computed tomography)の病変を自動的にデライン化し,放射線学の報告内容を生成するが,病変レベルのアノテーションを付加した公開CTデータセットの不足によって進行は制限される。
このギャップを埋めるために、我々はCT-Benchという、境界ボックス、記述、サイズ情報を含む7,795個のCT研究から20,335個の病変を含む第1種ベンチマークデータセットを導入し、病変の局所化、記述、サイズ推定、属性分類を含む2,850個のQAペアのマルチタスク視覚質問応答ベンチマークを紹介した。
現実の診断上の課題を反映するために、厳しいネガティブな例が挙げられます。
画像診断におけるCT-Benchの有用性を総合的評価指標として評価し, 視覚言語および医療用CLIPモデルを含む複数の最先端マルチモーダルモデルの評価を行った。
さらに、Lesion Image and Metadata Setの微調整モデルは、両コンポーネント間で大きなパフォーマンス向上をもたらし、CT-Benchの臨床的有用性を強調している。
関連論文リスト
- Dual-Encoder Transformer-Based Multimodal Learning for Ischemic Stroke Lesion Segmentation Using Diffusion MRI [5.332404648315838]
ISLES 2022データセットからのマルチモーダル拡散MRIを用いて虚血性脳梗塞の分節について検討した。
U-Net、Swin-UNet、TransUNetなど、最先端の畳み込みとトランスフォーマーベースのアーキテクチャがベンチマークされている。
その結果、トランスフォーマーベースのモデルは畳み込みベースラインよりも優れており、提案したデュアルエンコーダのTransUNetは、テストセットで85.4%のDiceスコアに達した。
論文 参考訳(メタデータ) (2025-12-23T15:24:31Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - A Clinically-Grounded Two-Stage Framework for Renal CT Report Generation [4.408787333571913]
本稿では,自動腎CTレポート作成のための枠組みを提案する。
ステージ1では、マルチタスク学習モデルが、各2次元画像から構造化された臨床特徴を検出する。
ステージ2では、視覚言語モデルが画像と検出された特徴に条件付けされた自由テキストレポートを生成する。
論文 参考訳(メタデータ) (2025-06-30T07:45:02Z) - BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification [0.6840587119863303]
我々は,脳腫瘍のセグメンテーションと分類タスクのためのデータセットであるBRISCを紹介し,高分解能セグメンテーションマスクを特徴とする。
データセットは6000のコントラスト強化T1強調MRIスキャンで構成され、セグメンテーションラベルを欠いた複数の公開データセットから照合された。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
論文 参考訳(メタデータ) (2025-06-17T08:56:05Z) - RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Visual Grounding of Whole Radiology Reports for 3D CT Images [12.071135670684013]
今回,CT画像用に設計された最初の視覚的接地フレームワークについて紹介し,様々な身体部位と多様な異常タイプをカバーするペアを報告する。
本フレームワークは, 画像の解剖学的セグメント化と, レポート構造化の2つの構成要素を組み合わせたものである。
7,321名のユニークな患者を対象に,地域記述対応アノテーションを用いた大規模データセットを構築した。
論文 参考訳(メタデータ) (2023-12-08T02:09:17Z) - HGT: A Hierarchical GCN-Based Transformer for Multimodal Periprosthetic
Joint Infection Diagnosis Using CT Images and Text [0.0]
補綴関節感染症(PJI)は重篤な合併症である。
現在,CT画像とPJIの数値テキストデータを組み合わせた統一診断基準が確立されていない。
本研究では,ディープラーニングとマルチモーダル技術に基づく診断手法であるHGTを紹介する。
論文 参考訳(メタデータ) (2023-05-29T11:25:57Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。