論文の概要: A-Eval: A Benchmark for Cross-Dataset Evaluation of Abdominal
Multi-Organ Segmentation
- arxiv url: http://arxiv.org/abs/2309.03906v1
- Date: Thu, 7 Sep 2023 17:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 17:04:10.047473
- Title: A-Eval: A Benchmark for Cross-Dataset Evaluation of Abdominal
Multi-Organ Segmentation
- Title(参考訳): A-Eval: 腹部多臓器分節のクロスデータセット評価のためのベンチマーク
- Authors: Ziyan Huang and Zhongying Deng and Jin Ye and Haoyu Wang and Yanzhou
Su and Tianbin Li and Hui Sun and Junlong Cheng and Jianpin Chen and Junjun
He and Yun Gu and Shaoting Zhang and Lixu Gu and Yu Qiao
- Abstract要約: A-Evalは,Abdominal ('A') の多臓器セグメンテーションのクロスデータセット評価('Eval')のためのベンチマークである。
FLARE22、AMOS、WORD、TotalSegmentatorという4つの大規模パブリックデータセットのトレーニングセットを採用しています。
A-Evalベンチマークを用いて各種モデルの一般化可能性を評価し,多様なデータ利用シナリオに着目した。
- 参考スコア(独自算出の注目度): 38.644744669074775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep learning have revolutionized abdominal multi-organ
segmentation, models often struggle with generalization due to training on
small, specific datasets. With the recent emergence of large-scale datasets,
some important questions arise: \textbf{Can models trained on these datasets
generalize well on different ones? If yes/no, how to further improve their
generalizability?} To address these questions, we introduce A-Eval, a benchmark
for the cross-dataset Evaluation ('Eval') of Abdominal ('A') multi-organ
segmentation. We employ training sets from four large-scale public datasets:
FLARE22, AMOS, WORD, and TotalSegmentator, each providing extensive labels for
abdominal multi-organ segmentation. For evaluation, we incorporate the
validation sets from these datasets along with the training set from the BTCV
dataset, forming a robust benchmark comprising five distinct datasets. We
evaluate the generalizability of various models using the A-Eval benchmark,
with a focus on diverse data usage scenarios: training on individual datasets
independently, utilizing unlabeled data via pseudo-labeling, mixing different
modalities, and joint training across all available datasets. Additionally, we
explore the impact of model sizes on cross-dataset generalizability. Through
these analyses, we underline the importance of effective data usage in
enhancing models' generalization capabilities, offering valuable insights for
assembling large-scale datasets and improving training strategies. The code and
pre-trained models are available at
\href{https://github.com/uni-medical/A-Eval}{https://github.com/uni-medical/A-Eval}.
- Abstract(参考訳): 深層学習は腹部の多臓器セグメンテーションに革命をもたらしたが、モデルは小さな特定のデータセットのトレーニングのために一般化に苦慮することが多い。
大規模なデータセットが最近出現すると、いくつかの重要な疑問が生まれている。
yes/noの場合、その一般化性をさらに改善するにはどうすればよいのか?
A-EvalはAbdominal(A)マルチ組織セグメンテーションのクロスデータセット評価(Eval)のためのベンチマークである。
flare22, amos, word, totalsegmentatorの4つの大規模データセットから,腹部マルチオルガンセグメンテーションのための広範なラベルを提供するトレーニングセットを採用している。
評価には、これらのデータセットの検証セットとBTCVデータセットのトレーニングセットを併用し、5つの異なるデータセットからなる堅牢なベンチマークを作成する。
本稿では,a-evalベンチマークを用いて,個別データセットを個別にトレーニングすること,擬似ラベルによるラベルなしデータの利用,異なるモダリティの混合,利用可能なデータセット全体の合同トレーニングなど,さまざまなデータ利用シナリオに注目して,さまざまなモデルの一般化可能性を評価する。
さらに,モデルサイズがデータセット間の一般化性に与える影響についても検討する。
これらの分析を通じて、モデルの一般化能力向上における効果的なデータ利用の重要性を強調し、大規模データセットの組み立てとトレーニング戦略の改善に有用な洞察を提供する。
コードと事前訓練されたモデルは、 \href{https://github.com/uni-medical/A-Eval}{https://github.com/uni-medical/A-Eval}で入手できる。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - BEVal: A Cross-dataset Evaluation Study of BEV Segmentation Models for Autonomous Driving [3.4113606473878386]
我々は最先端のBEVセグメンテーションモデルの包括的クロスデータセット評価を行う。
本稿では,カメラやLiDARなどの各種センサがモデルの一般化能力に与える影響について検討する。
論文 参考訳(メタデータ) (2024-08-29T07:49:31Z) - Automated Label Unification for Multi-Dataset Semantic Segmentation with GNNs [48.406728896785296]
本稿では,グラフニューラルネットワークを用いて,複数のデータセットにまたがる統一ラベル空間を自動構築する手法を提案する。
従来の手法と異なり,本手法は手動の注釈や分類の調整を必要とせず,シームレスな訓練を容易にする。
論文 参考訳(メタデータ) (2024-07-15T08:42:10Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Cross-Dataset Collaborative Learning for Semantic Segmentation [17.55660581677053]
我々は、Cross-Dataset Collaborative Learning (CDCL) と呼ばれる、単純で柔軟で汎用的なセマンティックセグメンテーション手法を提案する。
複数のラベル付きデータセットを付与することで、各データセット上の特徴表現の一般化と識別を改善することを目指しています。
単一データセットとクロスデータセットの設定で,Cityscapes,BDD100K,CamVid,COCO Stuffという4つの多様なデータセットに対して,広範な評価を行う。
論文 参考訳(メタデータ) (2021-03-21T09:59:47Z) - Simple multi-dataset detection [83.9604523643406]
複数の大規模データセット上で統合検出器を訓練する簡単な方法を提案する。
データセット固有のアウトプットを共通の意味分類に自動的に統合する方法を示す。
私たちのアプローチは手動の分類学の調整を必要としません。
論文 参考訳(メタデータ) (2021-02-25T18:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。