論文の概要: Class Imbalance Correction for Improved Universal Lesion Detection and Tagging in CT
- arxiv url: http://arxiv.org/abs/2504.05591v1
- Date: Tue, 08 Apr 2025 00:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:51.903811
- Title: Class Imbalance Correction for Improved Universal Lesion Detection and Tagging in CT
- Title(参考訳): CTにおけるユニバーサル病変検出とタグ付けの改善のためのクラス不均衡補正
- Authors: Peter D. Erickson, Tejas Sudharshan Mathai, Ronald M. Summers,
- Abstract要約: 我々は、DeepLesionの限られたサブセット(6%、1331病変、1309スライス)を使用して、VFNetモデルをトレーニングし、病変を検出し、タグ付けします。
私たちは、DeepLesionでクラス不均衡を最初に報告し、それに対応するためにデータ駆動のステップを取りました。
- 参考スコア(独自算出の注目度): 1.7098468543752943
- License:
- Abstract: Radiologists routinely detect and size lesions in CT to stage cancer and assess tumor burden. To potentially aid their efforts, multiple lesion detection algorithms have been developed with a large public dataset called DeepLesion (32,735 lesions, 32,120 CT slices, 10,594 studies, 4,427 patients, 8 body part labels). However, this dataset contains missing measurements and lesion tags, and exhibits a severe imbalance in the number of lesions per label category. In this work, we utilize a limited subset of DeepLesion (6\%, 1331 lesions, 1309 slices) containing lesion annotations and body part label tags to train a VFNet model to detect lesions and tag them. We address the class imbalance by conducting three experiments: 1) Balancing data by the body part labels, 2) Balancing data by the number of lesions per patient, and 3) Balancing data by the lesion size. In contrast to a randomly sampled (unbalanced) data subset, our results indicated that balancing the body part labels always increased sensitivity for lesions >= 1cm for classes with low data quantities (Bone: 80\% vs. 46\%, Kidney: 77\% vs. 61\%, Soft Tissue: 70\% vs. 60\%, Pelvis: 83\% vs. 76\%). Similar trends were seen for three other models tested (FasterRCNN, RetinaNet, FoveaBox). Balancing data by lesion size also helped the VFNet model improve recalls for all classes in contrast to an unbalanced dataset. We also provide a structured reporting guideline for a ``Lesions'' subsection to be entered into the ``Findings'' section of a radiology report. To our knowledge, we are the first to report the class imbalance in DeepLesion, and have taken data-driven steps to address it in the context of joint lesion detection and tagging.
- Abstract(参考訳): 放射線技師は、CTの病変を定期的に検出し、サイズし、がんを発症し、腫瘍の負担を評価する。
それらの努力を支援するために、DeepLesion(32,735の病変、32,120のCTスライス、10,594の研究、4,427の患者、8の身体部分ラベル)と呼ばれる大規模な公開データセットを用いて複数の病変検出アルゴリズムが開発された。
しかし、このデータセットには測定値や病変タグが欠落しており、ラベル単位の病変数に深刻な不均衡がある。
本研究では,病変アノテーションを含むDeepLesionのサブセット(6\%,1331病変,1309スライス)を用いて,VFNetモデルをトレーニングし,病変を検出してタグ付けする。
3つの実験を行うことで、クラス不均衡に対処する。
1) ボディ部ラベルによるデータのバランシング
2【患者1人あたりの病変数によるデータのバランス】
3) 病変の大きさによるデータのバランシング。
ランダムにサンプリングされた(不均衡な)データサブセットとは対照的に,本研究では,低データ量クラス(Bone: 80\% vs. 46\%,Kidney: 77\% vs. 61\%,Soft tissue: 70\% vs. 60\%,Pelvis: 83\% vs. 76\%)では,常に身体部分ラベルのバランスが,病変に対する感度を1cm向上させることを示した。
他の3つのモデル(FasterRCNN、RetinaNet、FoveaBox)でも同様の傾向が見られた。
障害サイズによるデータのバランシングは、バランスの取れていないデータセットとは対照的に、VFNetモデルがすべてのクラスのリコールを改善するのにも役立ちました。
放射線学レポートの ``Findings' セクションに入力される ``Lesions'' サブセクションの構造化されたレポートガイドラインも提供する。
われわれは,DeepLesionにおけるクラス不均衡を初めて報告し,関節病変の検出とタグ付けの文脈で対処するためのデータ駆動的なステップを採った。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Weakly-Supervised Detection of Bone Lesions in CT [48.34559062736031]
骨格領域は乳腺と前立腺に転移性癌が拡がる一般的な部位の1つである。
代用セグメンテーションタスクによりCTボリュームの骨病変を検出するパイプラインを開発した。
不完全および部分的トレーニングデータを用いたにもかかわらず,CTでは96.7%,47.3%の精度で骨病変が検出された。
論文 参考訳(メタデータ) (2024-01-31T21:05:34Z) - Improving Segmentation and Detection of Lesions in CT Scans Using
Intensity Distribution Supervision [5.162622771922123]
対象病変の強度ヒストグラムから強度に基づく病変確率関数を構築した。
各入力CTスキャンの計算したILPマップは、ネットワークトレーニングのための追加の監督として提供される。
また,本手法が検出作業に与える影響についても検討した。
論文 参考訳(メタデータ) (2023-07-11T21:00:47Z) - Transfer learning with weak labels from radiology reports: application
to glioma change detection [0.2010294990327175]
弱いラベル(不正確だが高速に生成するアノテーション)とトランスファーラーニング(TL)の併用を提案する。
具体的には、ソースドメインとターゲットドメインが同一であるが、ラベルシフトによってタスクが異なるインダクティブTLについて検討する。
低容量VGGと高容量SEResNeXtを比較し,モデルサイズとTLの関係について検討した。
論文 参考訳(メタデータ) (2022-10-18T09:15:27Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Multi-Label Annotation of Chest Abdomen Pelvis Computed Tomography Text
Reports Using Deep Learning [1.5701326192371183]
各種疾患, 臓器, 症例に応用可能なCT (Body Computed Tomography) 用マルチラベルアノテータを開発した。
我々は,放射線学テキストレポートから病名ラベルを抽出するルールベースのアルゴリズムを開発するために辞書手法を用いた。
RBA抽出ラベルを用いて注意誘導リカレントニューラルネットワーク(RNN)を訓練し、各臓器系に1つ以上の疾患や正常な疾患に陽性であるとして報告を分類した。
論文 参考訳(メタデータ) (2021-02-05T02:07:39Z) - Universal Lesion Detection by Learning from Multiple Heterogeneously
Labeled Datasets [23.471903581482668]
我々は,全データセットを用いてマルチヘッドマルチタスク病変検出法を学習し,DeepLesionの病変提案を生成する。
単一型病変検出装置からの知識伝達により,疑わしいが無意味な病変が発見された。
本手法は, 平均感度の測定値において, 現在の最先端手法よりも29%優れていた。
論文 参考訳(メタデータ) (2020-05-28T02:56:00Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。