論文の概要: Scale-Aware Curriculum Learning for Ddata-Efficient Lung Nodule Detection with YOLOv11
- arxiv url: http://arxiv.org/abs/2510.26923v1
- Date: Thu, 30 Oct 2025 18:33:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.893204
- Title: Scale-Aware Curriculum Learning for Ddata-Efficient Lung Nodule Detection with YOLOv11
- Title(参考訳): YOLOv11を用いたDデータ効率の良い肺結節検出のためのスケールアウェアなカリキュラム学習
- Authors: Yi Luo, Yike Guo, Hamed Hooshangnejad, Kai Ding,
- Abstract要約: 早期肺癌の診断には胸部CTの肺結節検出が不可欠である。
既存のディープラーニングアプローチは、注釈付きデータに制限のある臨床環境にデプロイする場合、課題に直面します。
本稿では、利用可能なデータスケールに基づいてカリキュラム設計を動的に調整する新しいトレーニング戦略である、SACL(Scale Adaptive Curriculum Learning)を提案する。
- 参考スコア(独自算出の注目度): 35.43372324090755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lung nodule detection in chest CT is crucial for early lung cancer diagnosis, yet existing deep learning approaches face challenges when deployed in clinical settings with limited annotated data. While curriculum learning has shown promise in improving model training, traditional static curriculum strategies fail in data-scarce scenarios. We propose Scale Adaptive Curriculum Learning (SACL), a novel training strategy that dynamically adjusts curriculum design based on available data scale. SACL introduces three key mechanisms:(1) adaptive epoch scheduling, (2) hard sample injection, and (3) scale-aware optimization. We evaluate SACL on the LUNA25 dataset using YOLOv11 as the base detector. Experimental results demonstrate that while SACL achieves comparable performance to static curriculum learning on the full dataset in mAP50, it shows significant advantages under data-limited conditions with 4.6%, 3.5%, and 2.0% improvements over baseline at 10%, 20%, and 50% of training data respectively. By enabling robust training across varying data scales without architectural modifications, SACL provides a practical solution for healthcare institutions to develop effective lung nodule detection systems despite limited annotation resources.
- Abstract(参考訳): 胸部CTにおける肺結節の検出は早期肺癌の診断に重要であるが,既存の深達度学習アプローチでは,注記データに制限のある臨床環境において課題に直面している。
カリキュラム学習はモデルトレーニングを改善する上で有望であるが、従来の静的カリキュラム戦略は、データ不足のシナリオでは失敗する。
本稿では、利用可能なデータスケールに基づいてカリキュラム設計を動的に調整する新しいトレーニング戦略である、SACL(Scale Adaptive Curriculum Learning)を提案する。
SACLは,(1)適応エポックスケジューリング,(2)ハードサンプルインジェクション,(3)スケールアウェア最適化の3つの主要なメカニズムを導入している。
基地検出器としてYOLOv11を用いてLUNA25データセット上でSACLを評価した。
実験の結果、SACLはmAP50の全データセットで静的カリキュラム学習に匹敵する性能を示したが、データ制限条件下では、それぞれ10%、20%、50%のトレーニングデータのベースラインよりも4.6%、3.5%、2.0%改善した。
アーキテクチャの変更なしに様々なデータスケールにわたる堅牢なトレーニングを可能にすることで、SACLは、限られたアノテーションリソースにもかかわらず、医療機関が効果的な肺結節検出システムを開発するための実用的なソリューションを提供する。
関連論文リスト
- CURVETE: Curriculum Learning and Progressive Self-supervised Training for Medical Image Classification [1.8352113484137627]
本稿では,Curriculum Learning and Progressive Self-supervised Training(CURVETE)という,新しい深層畳み込みニューラルネットワークを提案する。
CurVETEは、限られたサンプルに関する課題に対処し、モデルの一般化性を高め、全体的な分類性能を向上させる。
これを実現するために, 一般的な未学習サンプルの学習中に, サンプル分解の粒度に基づいてカリキュラム学習戦略を適用する。
論文 参考訳(メタデータ) (2025-10-27T15:46:02Z) - Hyperparameter Optimization and Reproducibility in Deep Learning Model Training [5.851295230237131]
再生性は、病理学の基礎モデルトレーニングにおいて重要な課題である。
QUILT-1Mデータセットを用いてCLIPモデルを訓練した。
RandomResizedCropの値は0.7-0.8で、より攻撃的である(0.6)か保守的である(0.9)。
論文 参考訳(メタデータ) (2025-10-16T21:57:52Z) - Transfer Learning with Active Sampling for Rapid Training and Calibration in BCI-P300 Across Health States and Multi-centre Data [0.13124513975412253]
機械学習とディープラーニングの進歩により、Brain-Computer Interface(BCI)のパフォーマンスが向上した。
個々の健康、ハードウェアのバリエーション、そしてニューラルデータに影響を与える文化的差異などの要因により、適用範囲は限られている。
適応的な伝達学習を備えた畳み込みニューラルネットワークを用いたBCIにおけるP300波の検出を提案する。
論文 参考訳(メタデータ) (2024-12-14T14:20:21Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Efficient Representation Learning for Healthcare with
Cross-Architectural Self-Supervision [5.439020425819001]
この課題に対応するために、クロスアーキテクチャー・セルフスーパービジョン(CASS)を紹介します。
そこで,CASSで訓練されたCNNとTransformerは,4つの多様な医療データセットにおいて,既存の自己教師型学習方法よりも優れていることを示す。
また、CASSはバッチサイズの変化やエポックの事前訓練にかなり堅牢であることを示し、医療アプリケーションにおける機械学習の候補として適している。
論文 参考訳(メタデータ) (2023-08-19T15:57:19Z) - Getting More Juice Out of Your Data: Hard Pair Refinement Enhances Visual-Language Models Without Extra Data [122.282521548393]
コントラスト言語-画像事前学習 (CLIP) は, クロスモーダルな画像-テキスト表現学習の標準となっている。
HELIPは、CLIPモデルを改善するためのコスト効率のよい戦略であり、継続的なトレーニングにおいて既存のデータセット内の挑戦的なテキストイメージペアを利用することで、CLIPモデルを改善する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Does Deep Learning REALLY Outperform Non-deep Machine Learning for
Clinical Prediction on Physiological Time Series? [11.901347806586234]
EHRに基づく臨床予測タスクにおいて,機械学習モデルの性能を体系的に検討する。
3つのディープラーニングメソッドと7つの非深度学習メソッドを含む10のベースライン機械学習モデルを比較した。
その結果,深層学習は非深層学習よりも優れており,一定の条件下では優れていた。
論文 参考訳(メタデータ) (2022-11-11T07:09:49Z) - Competence-based Multimodal Curriculum Learning for Medical Report
Generation [98.10763792453925]
本稿では,コンピテンスベースのマルチモーダルカリキュラム学習フレームワーク(CMCL)を提案する。
具体的には、CMCLは放射線学者の学習過程をシミュレートし、段階的にモデルを最適化する。
パブリックIU-XrayとMIMIC-CXRデータセットの実験は、CMCLを既存のモデルに組み込んでパフォーマンスを向上させることができることを示している。
論文 参考訳(メタデータ) (2022-06-24T08:16:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。