論文の概要: ULS+: Data-driven Model Adaptation Enhances Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2601.02988v1
- Date: Tue, 06 Jan 2026 12:57:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.935605
- Title: ULS+: Data-driven Model Adaptation Enhances Lesion Segmentation
- Title(参考訳): ULS+: データ駆動型モデル適応は病変セグメンテーションを促進する
- Authors: Rianne Weber, Niels Rocholl, Max de Grauw, Mathias Prokop, Ewoud Smit, Alessa Hering,
- Abstract要約: Universal Lesion(ULS)モデルでは、クリックポイントを中心としたボリューム(VOI)をCTスキャンで全身の病変をスキャンする。
モデルパフォーマンスをさらに改善できる、いくつかの新しいパブリックデータセットが利用可能になった。
Dice スコアを用いて ULS と ULS+ を比較し,ULS23 Challenge テストデータと Longitudinal-CT データセットのサブセットをクリックポイント位置で比較した。
- 参考スコア(独自算出の注目度): 0.5990729619130329
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we present ULS+, an enhanced version of the Universal Lesion Segmentation (ULS) model. The original ULS model segments lesions across the whole body in CT scans given volumes of interest (VOIs) centered around a click-point. Since its release, several new public datasets have become available that can further improve model performance. ULS+ incorporates these additional datasets and uses smaller input image sizes, resulting in higher accuracy and faster inference. We compared ULS and ULS+ using the Dice score and robustness to click-point location on the ULS23 Challenge test data and a subset of the Longitudinal-CT dataset. In all comparisons, ULS+ significantly outperformed ULS. Additionally, ULS+ ranks first on the ULS23 Challenge test-phase leaderboard. By maintaining a cycle of data-driven updates and clinical validation, ULS+ establishes a foundation for robust and clinically relevant lesion segmentation models.
- Abstract(参考訳): 本研究では,Universal Lesion Segmentation (ULS) モデルの拡張版である ULS+ を提案する。
元のALSモデルでは、クリックポイントを中心に興味のあるボリューム(VOI)をCTスキャンで全身の病変をスキャンしていた。
リリース以来、モデルパフォーマンスをさらに改善可能な、いくつかの新しいパブリックデータセットが利用可能になった。
ULS+にはこれらの追加データセットが組み込まれており、入力画像サイズが小さくなり、精度が向上し、推論が高速化される。
我々は,ALS23チャレンジテストデータと縦-CTデータセットのサブセットのクリックポイント位置について,Diceスコアとロバストネスを用いてULS+とULS+を比較した。
すべての比較において、ULS+はULSよりも著しく優れていた。
さらに、ULS23チャレンジテストフェーズのリーダーボードでは、ULS+が1位にランクインした。
データ駆動型更新と臨床検証のサイクルを維持することで、ALS+は堅牢で臨床的に関連する病変のセグメンテーションモデルの基礎を確立する。
関連論文リスト
- Can LLM Annotations Replace User Clicks for Learning to Rank? [112.2254432364736]
大規模な教師付きデータは最新のランキングモデルのトレーニングには不可欠だが、高品質な人的アノテーションの取得にはコストがかかる。
クリックデータは低コストの代替手段として広く使われており、近年の大規模言語モデル(LLM)の発展に伴い、LLMベースの関連アノテーションも有望なアノテーションとして登場した。
公開データセットであるTianGong-STと、産業データセットであるBaidu-Clickの両方の実験は、クリック管理モデルが高周波クエリでより良いパフォーマンスを示すことを示している。
データスケジューリングと周波数対応多目的学習という2つのトレーニング戦略を検討し、両方の監視信号を統合する。
論文 参考訳(メタデータ) (2025-11-10T02:26:14Z) - Toward Generalizable Multiple Sclerosis Lesion Segmentation Models [0.0]
本研究の目的は,多様な評価データセットにまたがる一般化モデルを開発することである。
私たちは、最先端のUNet++アーキテクチャを体系的にトレーニングした、高品質で公開可能なすべてのMS病変セグメンテーションデータセットを使用しました。
論文 参考訳(メタデータ) (2024-10-25T15:21:54Z) - Is C4 Dataset Optimal for Pruning? An Investigation of Calibration Data for LLM Pruning [56.795078085234195]
LLMプルーニングのアプローチは、プルーニングスコアを計算するためのキャリブレーションデータとして、C4データセットに依存している。
本研究では, LLMプルーニングにおけるキャリブレーションデータの選択を, 幅広いデータセットで評価する。
私たちの結果は、微妙でしばしば予期せぬ発見もいくつか見つけました。
論文 参考訳(メタデータ) (2024-10-09T22:00:19Z) - Generalizing Few Data to Unseen Domains Flexibly Based on Label Smoothing Integrated with Distributionally Robust Optimization [0.9374652839580183]
大規模なデータセットにディープニューラルネットワーク(DNN)を適用する場合、一般的にオーバーフィッティングが発生する。
ラベル平滑化 (LS) は, 1ホットラベルと一様ラベルベクトルを混合することにより, オーバーフィッティングを防止する効果的な正規化手法である。
本稿では、LSに分散ロバスト最適化(DRO)を導入し、既存のデータ分布を柔軟に未確認領域にシフトさせる。
論文 参考訳(メタデータ) (2024-08-09T14:13:33Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Automated Contrastive Learning Strategy Search for Time Series [48.68664732145665]
時系列データセットやタスクに対するコントラスト学習(AutoCL)を自動的に学習する,MicrosoftのAutomated Machine Learning(AutoML)プラクティスを提示する。
まず,データ拡張,埋め込み変換,コントラッシブなペア構成,コントラスト的な損失を網羅した,3時間1012ドルの探索空間を構築した。
さらに,評価タスクの性能からCLSを最適化し,空間内で有効なCLSを得る効率的な強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-19T11:24:14Z) - RigLSTM: Recurrent Independent Grid LSTM for Generalizable Sequence
Learning [75.61681328968714]
本稿では,対象タスクの基盤となるモジュール構造を利用するために,リカレントな独立したGrid LSTM(RigLSTM)を提案する。
本モデルでは, セル選択, 入力特徴選択, 隠れ状態選択, ソフト状態更新を採用し, より優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-11-03T07:40:06Z) - No Imputation Needed: A Switch Approach to Irregularly Sampled Time Series [41.387374646018344]
SLAN(Switch LSTM Aggregate Network)は,LSTMのグループを用いて不規則サンプリング時系列(ISTS)を計算せずにモデル化する。
SLANは、各センサの局所的なサマリーを明示的に捉え、観測期間を通してグローバルなサマリー状態を維持するために不規則情報を利用する。
SLANがMIMIC-IIIとPhyloonet 2012の2つの公開データセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-09-15T18:43:41Z) - The effect of phased recurrent units in the classification of multiple
catalogs of astronomical lightcurves [0.0]
本研究では, LSTM と LSTM をベースとしたアーキテクチャが天文学的な光曲線の分類に有効であることを示す。
その結果,LSTMは6/7データセット上でPSSTMより優れていた。
論文 参考訳(メタデータ) (2021-06-07T16:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。