論文の概要: Is Complete Labeling Necessary? Understanding Active Learning in Longitudinal Medical Imaging
- arxiv url: http://arxiv.org/abs/2511.18007v1
- Date: Sat, 22 Nov 2025 10:10:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.581982
- Title: Is Complete Labeling Necessary? Understanding Active Learning in Longitudinal Medical Imaging
- Title(参考訳): 完全ラベル化は必要か? : 縦断的医用画像におけるアクティブラーニングの理解
- Authors: Siteng Ma, Honghui Du, Prateek Mathur, Brendan S. Kelly, Ronan P. Killeen, Aonghus Lawlor, Ruihai Dong,
- Abstract要約: 縦型医用イメージング能動学習(LMI-AL)という新しいDALフレームワークを提案する。
ラベル付けされたデータの8%未満で、LMI-ALは完全なラベル付きデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 7.128938807538358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting changes in longitudinal medical imaging using deep learning requires a substantial amount of accurately labeled data. However, labeling these images is notably more costly and time-consuming than labeling other image types, as it requires labeling across various time points, where new lesions can be minor, and subtle changes are easily missed. Deep Active Learning (DAL) has shown promise in minimizing labeling costs by selectively querying the most informative samples, but existing studies have primarily focused on static tasks like classification and segmentation. Consequently, the conventional DAL approach cannot be directly applied to change detection tasks, which involve identifying subtle differences across multiple images. In this study, we propose a novel DAL framework, named Longitudinal Medical Imaging Active Learning (LMI-AL), tailored specifically for longitudinal medical imaging. By pairing and differencing all 2D slices from baseline and follow-up 3D images, LMI-AL iteratively selects the most informative pairs for labeling using DAL, training a deep learning model with minimal manual annotation. Experimental results demonstrate that, with less than 8% of the data labeled, LMI-AL can achieve performance comparable to models trained on fully labeled datasets. We also provide a detailed analysis of the method's performance, as guidance for future research. The code is publicly available at https://github.com/HelenMa9998/Longitudinal_AL.
- Abstract(参考訳): 深層学習を用いた縦断的医用画像の変化の検出には,かなりの量の正確なラベル付きデータが必要である。
しかし、これらの画像のラベル付けは、他の画像の型をラベル付けするよりも明らかにコストがかかり、時間を要する。
ディープ・アクティブ・ラーニング(DAL)は、最も情報性の高いサンプルを選択的にクエリすることでラベリングコストを最小化することを約束しているが、既存の研究は主に分類やセグメンテーションのような静的タスクに焦点を当てている。
したがって、従来のDALアプローチは、複数の画像の微妙な違いを識別する変更検出タスクには直接適用できない。
本研究では,縦型医用イメージング能動学習(LMI-AL)と呼ばれる,縦型医用イメージングに特化した新しいDALフレームワークを提案する。
LMI-ALは、ベースラインからの2Dスライスと後続の3D画像とのペアリングと区別によって、DALを使用してラベル付けするための最も情報性の高いペアを反復的に選択し、最小の手動アノテーションでディープラーニングモデルをトレーニングする。
実験の結果、ラベル付きデータセットの8%未満では、LMI-ALは完全なラベル付きデータセットでトレーニングされたモデルに匹敵するパフォーマンスを達成できることが示された。
また,今後の研究の指針として,本手法の性能を詳細に分析する。
コードはhttps://github.com/HelenMa9998/Longitudinal_ALで公開されている。
関連論文リスト
- Modular Deep Active Learning Framework for Image Annotation: A Technical Report for the Ophthalmo-AI Project [1.7325492987380366]
MedDeepCyleALは、完全なアクティブラーニングサイクルを実装するエンドツーエンドフレームワークである。
研究者に、採用したいディープラーニングモデルの種類を選択する柔軟性を提供する。
MedDeepCyleALはどんな画像データにも適用可能ですが、本プロジェクトでは特に眼科データに適用しています。
論文 参考訳(メタデータ) (2024-03-22T11:53:03Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - PCDAL: A Perturbation Consistency-Driven Active Learning Approach for
Medical Image Segmentation and Classification [12.560273908522714]
監視された学習は、医用画像のアプリケーションを取得するのに費用がかかり、時間がかかり、実用的でない、大規模な注釈付きデータに大きく依存している。
アクティブラーニング(AL)手法は、アノテーションのコストを削減するために、自然な画像分類タスクに広く応用されている。
本稿では,2次元医用画像分類,セグメンテーション,および3次元医用画像分割タスクに同時に適用可能なALベースの手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:11:46Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection [72.30883544352918]
異なる条件下で,擬似ラベルがベースラインモデルに対して効果的に監視できるかどうかを検討する。
ベルとホイッスルを使わずにKITTI-3Dテストセットの適度なレベルを20.23 APで達成し、ベースラインモデルを6.03 APで改善した。
この研究が、半教師付き環境下で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2022-08-15T12:17:46Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - A Comparative Survey of Deep Active Learning [76.04825433362709]
Active Learning (AL)は、ラベル付けのための大きなラベル付けされていないデータプールからデータサンプルを順次選択することで、ラベル付けコストを削減するための一連のテクニックである。
ディープラーニング(DL)はデータハングリーであり、DLモデルのパフォーマンスは、より多くのトレーニングデータとともに単調にスケールする。
近年、Deep Active Learning (DAL) は、高価なラベリングコストを最小化しつつ、モデル性能を最大化するための実現可能なソリューションとして上昇している。
論文 参考訳(メタデータ) (2022-03-25T05:17:24Z) - Self-Paced Contrastive Learning for Semi-supervisedMedical Image
Segmentation with Meta-labels [6.349708371894538]
メタラベルアノテーションを扱うために、コントラスト学習を適用することを提案する。
画像エンコーダの事前トレーニングにはメタラベルを使用し、半教師付きトレーニングを標準化する。
3つの異なる医用画像セグメンテーションデータセットの結果から,本手法は数回のスキャンでトレーニングしたモデルの性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2021-07-29T04:30:46Z) - Positional Contrastive Learning for Volumetric Medical Image
Segmentation [13.086140606803408]
コントラストデータペアを生成するための新しい位置コントラスト学習フレームワークを提案する。
提案手法は,半教師付き設定と移動学習の両方において既存の手法と比較して,セグメンテーション性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T22:15:28Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。