論文の概要: Loss Design and Architecture Selection for Long-Tailed Multi-Label Chest X-Ray Classification
- arxiv url: http://arxiv.org/abs/2603.02294v1
- Date: Mon, 02 Mar 2026 17:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.506801
- Title: Loss Design and Architecture Selection for Long-Tailed Multi-Label Chest X-Ray Classification
- Title(参考訳): 長尺型マルチラベル胸部X線分類における損失設計とアーキテクチャ選択
- Authors: Nikhileswara Rao Sulake,
- Abstract要約: 長期分布クラスはマルチラベル胸部X線分類において重要な課題である。
我々は,CXR-LT 2026ベンチマークを用いて,損失関数,CNNバックボーンアーキテクチャ,後学習戦略の体系的評価を行った。
本実験は,遅延再重み付けによるLDAMが標準BCEと非対称な損失を常に上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-tailed class distributions pose a significant challenge for multi-label chest X-ray (CXR) classification, where rare but clinically important findings are severely underrepresented. In this work, we present a systematic empirical evaluation of loss functions, CNN backbone architectures and post-training strategies on the CXR-LT 2026 benchmark, comprising approximately 143K images with 30 disease labels from PadChest. Our experiments demonstrate that LDAM with deferred re-weighting (LDAM-DRW) consistently outperforms standard BCE and asymmetric losses for rare class recognition. Amongst the architectures evaluated, ConvNeXt-Large achieves the best single-model performance with 0.5220 mAP and 0.3765 F1 on our development set, whilst classifier re-training and test-time augmentation further improve ranking metrics. On the official test leaderboard, our submission achieved 0.3950 mAP, ranking 5th amongst all 68 participating teams with total of 1528 submissions. We provide a candid analysis of the development-to-test performance gap and discuss practical insights for handling class imbalance in clinical imaging settings. Code is available at https://github.com/Nikhil-Rao20/Long_Tail.
- Abstract(参考訳): 長い尾のクラス分布は、稀に臨床的に重要な発見が不十分なマルチラベル胸部X線分類(CXR)において重要な課題である。
本研究では,約143Kの画像とPadChestの30の病名ラベルからなるCXR-LT 2026ベンチマークにおいて,損失関数,CNNバックボーンアーキテクチャ,およびポストトレーニング戦略の体系的評価を行う。
LDAM(deferred re-weighting, LDAM-DRW)は, 標準BCEおよび非対称損失よりも高い性能を示した。
評価したアーキテクチャのうち、ConvNeXt-Largeは開発セットの0.5220 mAPと0.3765 F1で最高のシングルモデル性能を達成し、また分類器の再訓練とテスト時間拡張によりランキングの指標をさらに改善した。
公式なテストリーダーボードでは、応募は0.3950mAPに達し、68チーム中5位にランクされ、合計1528の応募があった。
臨床画像設定におけるクラス不均衡処理の実践的洞察について検討する。
コードはhttps://github.com/Nikhil-Rao20/Long_Tailで公開されている。
関連論文リスト
- Overview of the CXR-LT 2026 Challenge: Multi-Center Long-Tailed and Zero Shot Chest X-ray Classification [14.263392973355666]
我々は,CXR-LT 2026チャレンジを提示する。
このベンチマークの第3回では、PadChestとNIH Chest X線データセットから145,000以上のイメージで構成されるマルチセンターデータセットが導入されている。
課題は,(1)既知の30のクラスに対するロバストなマルチラベル分類,(2)未発見の6つのレアな病気クラスへのオープンワールド一般化,の2つの中核課題を定義する。
トップパフォーマンスチームの結果を報告し、平均的平均精度(mAP)、AUROC、F1スコアで評価する。
論文 参考訳(メタデータ) (2026-02-25T16:39:21Z) - Handling Supervision Scarcity in Chest X-ray Classification: Long-Tailed and Zero-Shot Learning [14.888577410967129]
CXR-LT 2026は、36クラスのラベル空間を持つPadChestベースのベンチマークの問題に対処し、トレーニング用のインディストリビューションクラス30とゼロショット評価のためのアウト・オブ・ディストリビューションクラス6に分割した。
我々は、個別の監督体制に合わせたタスク固有のソリューションを提案する。
タスク1(長い尾の多ラベル分類)では、頻繁な結果に対して安定した性能を維持しつつ、テールクラスの認識を改善するために、バランスの取れない多ラベル学習戦略を採用する。
タスク2(ゼロショットOOD認識)では,教師付きラベルを使わずに未知の疾患カテゴリのスコアを生成する予測手法を提案する。
論文 参考訳(メタデータ) (2026-02-13T20:07:34Z) - FUGC: Benchmarking Semi-Supervised Learning Methods for Cervical Segmentation [63.7829089874007]
本稿では,頚椎椎間板断裂における半教師あり学習のための最初のベンチマークであるFetal Ultrasound Grand Challenge (FUGC)を紹介する。
FUGCは、500のトレーニング画像、90の検証画像、300のテスト画像を含む890のTVSイメージのデータセットを提供する。
Dice similarity Coefficient (DSC), Hausdorff Distance (HD), and Runtime (RT), with a weighted combination of 0.4/0.4/0.2。
論文 参考訳(メタデータ) (2026-01-22T01:34:39Z) - Benchmarking CXR Foundation Models With Publicly Available MIMIC-CXR and NIH-CXR14 Datasets [0.35441912284181126]
この研究は、パブリックMIMIC-CRとNIH ChestX-ray14データセットに2つの大規模胸部X線埋め込みモデル(CXR)をベンチマークする。
トレーニング済みエンコーダから直接埋め込みを抽出し,複数ラベルの軽量LightGBM分類器を訓練し,平均AUROC,F1スコアを95%の信頼区間で報告した。
論文 参考訳(メタデータ) (2025-12-03T12:55:44Z) - Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization [0.0]
マンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADSカテゴリマッチングが必要である。
現在の医用画像検索研究は方法論的限界に悩まされている。
論文 参考訳(メタデータ) (2025-08-06T18:05:18Z) - CXR-LT 2024: A MICCAI challenge on long-tailed, multi-label, and zero-shot disease classification from chest X-ray [64.2434525370243]
CXR-LTシリーズは、胸部X線を用いた肺疾患の分類を強化するために設計されたコミュニティ主導のイニシアチブである。
CXR-LT 2024はデータセットを377,110の胸部X線(CXR)と45の疾患ラベルに拡張し、19の新しい稀な疾患の発見を含んでいる。
本稿では、CXR-LT 2024の概要を述べるとともに、データキュレーションプロセスの詳細と最先端ソリューションの統合について述べる。
論文 参考訳(メタデータ) (2025-06-09T17:53:31Z) - Deep Rib Fracture Instance Segmentation and Classification from CT on
the RibFrac Challenge [66.86170104167608]
RibFrac Challengeは、660のCTスキャンから5,000以上のリブ骨折のベンチマークデータセットを提供する。
MICCAI 2020チャレンジ期間中に243つの結果が評価され、7つのチームがチャレンジサマリーに参加するために招待された。
この分析により、いくつかのトップリブ骨折検出ソリューションが、人間の専門家と同等かそれ以上の性能を達成したことが明らかになった。
論文 参考訳(メタデータ) (2024-02-14T18:18:33Z) - Bag of Tricks for Long-Tailed Multi-Label Classification on Chest X-Rays [40.11576642444264]
本報告では,ICCV CVAMD 2023 CXR-LT コンペティションにおけるソリューションの概要について述べる。
我々は,CXR診断の有効性を,いくつかの先進的な設計を統合することで実証的に検討した。
私たちのフレームワークは最終的に、競争テストセットで0.349 mAPを獲得し、トップ5にランクインしました。
論文 参考訳(メタデータ) (2023-08-17T08:25:55Z) - Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。