論文の概要: INFORM-CT: INtegrating LLMs and VLMs FOR Incidental Findings Management in Abdominal CT
- arxiv url: http://arxiv.org/abs/2512.14732v1
- Date: Wed, 10 Dec 2025 23:28:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.69714
- Title: INFORM-CT: INtegrating LLMs and VLMs FOR Incidental Findings Management in Abdominal CT
- Title(参考訳): Inform-CT : 腹部CTにおける偶発的所見管理のためのLLMとVLMの併用
- Authors: Idan Tankel, Nir Mazor, Rafi Brada, Christina LeBedis, Guy ben-Yosef,
- Abstract要約: CTスキャンの偶発的な所見は、しばしば無視されるが、臨床的に重要な意味を持ち、確立されたガイドラインに従って報告すべきである。
本稿では,大規模言語モデル (LLM) と基本視覚言語モデル (VLM) を計画・実行エージェントアプローチで活用する新しいフレームワークを提案する。
腹腔内臓器の医療ガイドラインを考慮し, 腹腔鏡下手術による腹腔鏡下手術を施行し, 腹腔鏡下手術を施行した。
- 参考スコア(独自算出の注目度): 1.3048920509133808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incidental findings in CT scans, though often benign, can have significant clinical implications and should be reported following established guidelines. Traditional manual inspection by radiologists is time-consuming and variable. This paper proposes a novel framework that leverages large language models (LLMs) and foundational vision-language models (VLMs) in a plan-and-execute agentic approach to improve the efficiency and precision of incidental findings detection, classification, and reporting for abdominal CT scans. Given medical guidelines for abdominal organs, the process of managing incidental findings is automated through a planner-executor framework. The planner, based on LLM, generates Python scripts using predefined base functions, while the executor runs these scripts to perform the necessary checks and detections, via VLMs, segmentation models, and image processing subroutines. We demonstrate the effectiveness of our approach through experiments on a CT abdominal benchmark for three organs, in a fully automatic end-to-end manner. Our results show that the proposed framework outperforms existing pure VLM-based approaches in terms of accuracy and efficiency.
- Abstract(参考訳): CTスキャンの偶発的な所見は、しばしば無視されるが、臨床的に重要な意味を持ち、確立されたガイドラインに従って報告すべきである。
放射線技師による伝統的な手動検査は、時間と変動である。
本稿では,大規模言語モデル (LLMs) と基礎視覚言語モデル (VLMs) を活用する新しいフレームワークを提案する。
腹腔内臓器の医療ガイドラインを考慮し, 腹腔鏡下手術による腹腔鏡下手術を施行し, 腹腔鏡下手術を施行した。
LLMをベースとしたプランナーは、事前に定義されたベース関数を使用してPythonスクリプトを生成し、エグゼキュータは、VLM、セグメンテーションモデル、画像処理サブルーチンを介して、必要なチェックと検出を実行するためにこれらのスクリプトを実行する。
腹腔鏡下CT検診による3臓器の腹腔鏡検査によるアプローチの有効性を,完全自動エンドツーエンドで検証した。
提案手法は,既存のVLMベースの手法よりも精度と効率の点で優れていることを示す。
関連論文リスト
- Semantic Segmentation for Preoperative Planning in Transcatheter Aortic Valve Replacement [61.573750959726475]
経カテーテル大動脈弁置換術(TAVR)の術前計画のための医療ガイドラインを考察し,セマンティックセグメンテーションモデルを用いて支援できる課題を同定する。
まず, 細粒度のTAVR関連擬似ラベルを, 粗粒度の解剖学的情報から抽出し, セグメンテーションモデルを訓練し, スキャンでこれらの構造がどれだけよく見つかるかを定量化する。
論文 参考訳(メタデータ) (2025-07-22T13:24:45Z) - Evaluating Vision Language Models (VLMs) for Radiology: A Comprehensive Analysis [4.803310914375717]
本研究では,3つの視覚言語基盤モデル(RAD-DINO,CheXagent,BiomedCLIP)を,放射線学タスクの微細な画像特徴を捉える能力について評価した。
胸部X線写真上, 気胸, 心肥大に対する分類, セグメンテーション, 回帰作業で評価した。
論文 参考訳(メタデータ) (2025-04-22T17:20:34Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Deep Learning-Based Automated Workflow for Accurate Segmentation and Measurement of Abdominal Organs in CT Scans [0.0]
本研究の目的は,CTスキャンにおける腹部臓器の分画と計測のための自動ワークフローの開発と評価である。
提案手法はCTスキャンにおける腹部臓器計測の自動化,効率的,信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-03-13T06:50:44Z) - An LLM-Powered Agent for Physiological Data Analysis: A Case Study on PPG-based Heart Rate Estimation [2.0195680688695594]
大規模言語モデル(LLM)は、対話的なコミュニケーションを通じて診断、患者ケア、意思決定支援を改善することで、医療に革命をもたらしている。
本研究では, LLM と解析ツールの統合におけるギャップを埋めるための生理的時系列解析のための LLM を利用したエージェントを開発した。
OpenCHAをベースとして,OpenAIのGPT-3.5-turboモデルを利用したエージェントは,ユーザインタラクションやデータソース,分析ツールを組み込んで,正確なヘルスインサイトを生成するオーケストレータを備えている。
論文 参考訳(メタデータ) (2025-02-18T13:09:59Z) - Self-adaptive vision-language model for 3D segmentation of pulmonary artery and vein [18.696258519327095]
本稿では,言語誘導型自己適応型クロスアテンション・フュージョン・フレームワークを提案する。
提案手法は,3次元CTスキャンのセグメンテーションを生成するための強力な特徴抽出器として,事前訓練したCLIPを採用している。
これまでで最大の肺動脈ベインCTデータセットである局所的データセットを用いて,本手法を広範囲に検証した。
論文 参考訳(メタデータ) (2025-01-07T12:03:02Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Automatic Liver Segmentation from CT Images Using Deep Learning
Algorithms: A Comparative Study [0.0]
本稿では,Liverセグメンテーションのための最も効率的なDLアーキテクチャを提案する。
完全自動肝セグメンテーションのための最も効率的かつ正確なDLアーキテクチャを明らかにすることを目的としている。
その結果,DLアルゴリズムはDICOM画像からの臓器分割を高精度に自動化できることが判明した。
論文 参考訳(メタデータ) (2021-01-25T10:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。