論文の概要: LEAVS: An LLM-based Labeler for Abdominal CT Supervision
- arxiv url: http://arxiv.org/abs/2503.13330v1
- Date: Mon, 17 Mar 2025 16:09:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:33:13.231693
- Title: LEAVS: An LLM-based Labeler for Abdominal CT Supervision
- Title(参考訳): LLM-based Labeler for abdominal CT Supervision (LEAVS)
- Authors: Ricardo Bigolin Lanfredi, Yan Zhuang, Mark Finkelstein, Praveen Thoppey Srinivasan Balamuralikrishna, Luke Krembs, Brandon Khoury, Arthi Reddy, Pritam Mukherjee, Neil M. Rofsky, Ronald M. Summers,
- Abstract要約: LEAVSは腹部ビジョン・スーパービジョンのための大きな言語モデルである。
腹部X線検査では,9例の腹部臓器に7種類の異常が認められた。
腹腔内臓器のいくつかの異常型を抽出し、平均F1スコアは0.89であり、競合するラベルや人間よりも著しく優れている。
- 参考スコア(独自算出の注目度): 6.177741988281365
- License:
- Abstract: Extracting structured labels from radiology reports has been employed to create vision models to simultaneously detect several types of abnormalities. However, existing works focus mainly on the chest region. Few works have been investigated on abdominal radiology reports due to more complex anatomy and a wider range of pathologies in the abdomen. We propose LEAVS (Large language model Extractor for Abdominal Vision Supervision). This labeler can annotate the certainty of presence and the urgency of seven types of abnormalities for nine abdominal organs on CT radiology reports. To ensure broad coverage, we chose abnormalities that encompass most of the finding types from CT reports. Our approach employs a specialized chain-of-thought prompting strategy for a locally-run LLM using sentence extraction and multiple-choice questions in a tree-based decision system. We demonstrate that the LLM can extract several abnormality types across abdominal organs with an average F1 score of 0.89, significantly outperforming competing labelers and humans. Additionally, we show that extraction of urgency labels achieved performance comparable to human annotations. Finally, we demonstrate that the abnormality labels contain valuable information for training a single vision model that classifies several organs as normal or abnormal. We release our code and structured annotations for a public CT dataset containing over 1,000 CT volumes.
- Abstract(参考訳): 放射線学報告から構造化ラベルを抽出して視覚モデルを作成し、いくつかの異常を同時に検出している。
しかし、現存する作品は主に胸部を中心にしている。
腹部X線検査では, より複雑で, 腹部に幅広い病理像がみられた。
LEAVS (Large Language model Extractor for Abdominal Vision Supervision) を提案する。
腹部X線検査では,9例の腹部臓器に7種類の異常が認められた。
対象範囲を広く把握するため,CT検査で検索した症例のほとんどを含む症例を選択した。
本手法では,木に基づく意思決定システムにおいて,文抽出と複数選択質問を用いた局所実行LLMのための特別なチェーン・オブ・シンセサイティング戦略を採用する。
以上の結果から, LLMは腹腔内臓器にいくつかの異常型を抽出し, 平均F1スコアは0.89であり, 競合するラベルやヒトよりも有意に優れていた。
さらに, 緊急ラベルの抽出は, 人間のアノテーションに匹敵する性能を示した。
最後に、異常ラベルには、複数の臓器を正常または異常に分類する単一の視覚モデルを訓練するための貴重な情報が含まれていることを実証する。
我々は,1000以上のCTボリュームを含む公開CTデータセットに対して,コードと構造化アノテーションをリリースする。
関連論文リスト
- Dia-LLaMA: Towards Large Language Model-driven CT Report Generation [4.634780391920529]
診断情報をガイダンスとして組み込むことで,CTレポート生成にLLaMA2-7Bを適用するためのフレームワークであるDia-LLaMAを提案する。
我々は,CTの高次元を考慮し,事前学習したVT3Dと知覚器を併用して視覚情報を抽出する。
報告生成のためのLCMを調整し,異常を強調するため,病原体記憶バンクを参照して,追加の診断情報を抽出する。
論文 参考訳(メタデータ) (2024-03-25T03:02:51Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Anatomy-Guided Weakly-Supervised Abnormality Localization in Chest
X-rays [17.15666977702355]
本稿では,弱いアノテーション問題に対処するため,解剖誘導胸部X線ネットワーク(AGXNet)を提案する。
本フレームワークは2つのネットワークのカスケードから構成される。1つは解剖学的異常を同定し,もう1つは病理学的観察を行う。
MIMIC-CXRデータセットを用いて,AGXNetの疾患および解剖学的異常局在に対する有効性を示した。
論文 参考訳(メタデータ) (2022-06-25T18:33:27Z) - Factored Attention and Embedding for Unstructured-view Topic-related
Ultrasound Report Generation [70.7778938191405]
本研究では,非構造的トピック関連超音波レポート生成のための新しい因子的注意・埋め込みモデル(FAE-Gen)を提案する。
提案したFAE-Genは主に2つのモジュール、すなわちビュー誘導因子の注意とトピック指向因子の埋め込みから構成されており、異なるビューで均質および不均一な形態的特徴を捉えている。
論文 参考訳(メタデータ) (2022-03-12T15:24:03Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Multi-Label Annotation of Chest Abdomen Pelvis Computed Tomography Text
Reports Using Deep Learning [1.5701326192371183]
各種疾患, 臓器, 症例に応用可能なCT (Body Computed Tomography) 用マルチラベルアノテータを開発した。
我々は,放射線学テキストレポートから病名ラベルを抽出するルールベースのアルゴリズムを開発するために辞書手法を用いた。
RBA抽出ラベルを用いて注意誘導リカレントニューラルネットワーク(RNN)を訓練し、各臓器系に1つ以上の疾患や正常な疾患に陽性であるとして報告を分類した。
論文 参考訳(メタデータ) (2021-02-05T02:07:39Z) - Paying Per-label Attention for Multi-label Extraction from Radiology
Reports [1.9601378412924186]
脳卒中患者の頭部CT像から構造化ラベルを自動抽出する。
神経疾患に関する放射線学的所見と臨床的印象に対応する31のラベル群を提案する。
放射線学者の報告によると、我々は単一のモデルで多くのラベルをしっかりと抽出することができる。
論文 参考訳(メタデータ) (2020-07-31T16:11:09Z) - Manifolds for Unsupervised Visual Anomaly Detection [79.22051549519989]
トレーニングで必ずしも異常に遭遇しない教師なしの学習方法は、非常に有用です。
ジャイロプレーン層を用いた立体投影による超球形変分オートエンコーダ(VAE)を開発した。
工業用AIシナリオにおける実世界の実用性を実証し、精密製造および検査における視覚異常ベンチマークの最先端結果を示す。
論文 参考訳(メタデータ) (2020-06-19T20:41:58Z) - Universal Lesion Detection by Learning from Multiple Heterogeneously
Labeled Datasets [23.471903581482668]
我々は,全データセットを用いてマルチヘッドマルチタスク病変検出法を学習し,DeepLesionの病変提案を生成する。
単一型病変検出装置からの知識伝達により,疑わしいが無意味な病変が発見された。
本手法は, 平均感度の測定値において, 現在の最先端手法よりも29%優れていた。
論文 参考訳(メタデータ) (2020-05-28T02:56:00Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。