論文の概要: Robust Segmentation Models using an Uncertainty Slice Sampling Based
Annotation Workflow
- arxiv url: http://arxiv.org/abs/2109.14879v1
- Date: Thu, 30 Sep 2021 06:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 02:41:34.828086
- Title: Robust Segmentation Models using an Uncertainty Slice Sampling Based
Annotation Workflow
- Title(参考訳): 不確かさスライスサンプリングに基づくアノテーションワークフローを用いたロバストセグメンテーションモデル
- Authors: Grzegorz Chlebus and Andrea Schenk and Horst K. Hahn and Bram van
Ginneken and Hans Meine
- Abstract要約: 本稿では,3次元医療ボリュームのセマンティックセグメンテーションのための不確実スライスサンプリング(USS)戦略を提案する。
多地点データを用いた肝セグメンテーション作業におけるUSSの有効性を示す。
- 参考スコア(独自算出の注目度): 5.051373749267151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation neural networks require pixel-level annotations in
large quantities to achieve a good performance. In the medical domain, such
annotations are expensive, because they are time-consuming and require expert
knowledge. Active learning optimizes the annotation effort by devising
strategies to select cases for labeling that are most informative to the model.
In this work, we propose an uncertainty slice sampling (USS) strategy for
semantic segmentation of 3D medical volumes that selects 2D image slices for
annotation and compare it with various other strategies. We demonstrate the
efficiency of USS on a CT liver segmentation task using multi-site data. After
five iterations, the training data resulting from USS consisted of 2410 slices
(4% of all slices in the data pool) compared to 8121 (13%), 8641 (14%), and
3730 (6%) for uncertainty volume (UVS), random volume (RVS), and random slice
(RSS) sampling, respectively. Despite being trained on the smallest amount of
data, the model based on the USS strategy evaluated on 234 test volumes
significantly outperformed models trained according to other strategies and
achieved a mean Dice index of 0.964, a relative volume error of 4.2%, a mean
surface distance of 1.35 mm, and a Hausdorff distance of 23.4 mm. This was only
slightly inferior to 0.967, 3.8%, 1.18 mm, and 22.9 mm achieved by a model
trained on all available data, but the robustness analysis using the 5th
percentile of Dice and the 95th percentile of the remaining metrics
demonstrated that USS resulted not only in the most robust model compared to
other sampling schemes, but also outperformed the model trained on all data
according to Dice (0.946 vs. 0.945) and mean surface distance (1.92 mm vs. 2.03
mm).
- Abstract(参考訳): セマンティックセグメンテーションニューラルネットワークは、優れた性能を達成するためにピクセルレベルのアノテーションを大量に要求する。
医療領域では、こうしたアノテーションは時間と専門知識を必要とするため、高価です。
アクティブラーニングは、モデルに最も有益なラベル付けの事例を選択するための戦略を考案することで、アノテーションの取り組みを最適化する。
本研究では,アノテーションのために2次元画像スライスを選択し,他の様々な戦略と比較する3次元医用ボリュームの意味セグメンテーションのための不確実性スライスサンプリング(uss)戦略を提案する。
多地点データを用いたCT肝セグメンテーション作業におけるUSSの有効性を示す。
5回の訓練の後、USSから得られたトレーニングデータは、それぞれ8121 (13%)、8641 (14%)、3730 (6%)の不確実量(UVS)、ランダムボリューム(RVS)、ランダムスライス(RSS)サンプリングと比較して2410スライス(データプール内のスライス全体の4%)で構成された。
最小のデータ量で訓練されたにもかかわらず、uss戦略に基づいたモデルは、他の戦略に従ってトレーニングされた234のテストボリュームで評価され、平均サイス指数0.964、相対体積誤差4.2%、平均表面距離1.35mm、ハウスドルフ距離23.4mmを達成した。
これは、すべての利用可能なデータで訓練されたモデルによって達成された0.967, 3.8%, 1.18 mm, 22.9 mmにわずかに劣ったが、Diceの5番目のパーセンタイルと残りの95番目のパーセンタイルを用いたロバストネス分析により、USSは他のサンプリング方式と比較して最も堅牢なモデルに留まらず、Dice (0.946 vs. 0.945)と平均表面距離(1.92 mm vs. 2.03 mm)で訓練されたモデルよりも優れていた。
関連論文リスト
- A Novel Adaptive Fine-Tuning Algorithm for Multimodal Models: Self-Optimizing Classification and Selection of High-Quality Datasets in Remote Sensing [46.603157010223505]
マルチモーダル大モデルに対する適応的な微調整アルゴリズムを提案する。
我々は、GeoChatマルチモーダルリモートセンシングデータセットの3分の1を使用して、2台の3090 GPU上でモデルをトレーニングする。
このモデルはUCMercedおよびAID評価データセットで89.86と77.19のスコアを得た。
論文 参考訳(メタデータ) (2024-09-20T09:19:46Z) - Compact Language Models via Pruning and Knowledge Distillation [61.56557874432008]
ミニトロンモデルでは、スクラッチからのトレーニングに比べてMMLUスコアが最大16%改善している。
すでにトレーニング済みの15Bモデルから8Bと4Bモデルを抽出するには、スクラッチからトレーニングするよりも、モデル毎のトレーニングトークンを最大40倍少なくする必要があります。
論文 参考訳(メタデータ) (2024-07-19T21:47:57Z) - DCSM 2.0: Deep Conditional Shape Models for Data Efficient Segmentation [11.532639713283226]
本稿では,エッジ検出器とエッジマップ上に条件付けされた暗黙の形状関数を用いて,モード間の形状情報を活用するDeep Conditional Shape Models 2.0を紹介する。
エッジ検出段階で使用するトレーニングデータの量を変化させることで,対象領域におけるデータ効率を実証する。
トレーニングデータの2%(22巻)しか使用していない場合、平均表面距離は最大5%、平均表面距離は2.58mm、ハウスドルフ距離は21.02mmである。
論文 参考訳(メタデータ) (2024-06-28T18:52:11Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - A Lightweight and Accurate Face Detection Algorithm Based on Retinaface [0.5076419064097734]
Retinaface に基づく軽量かつ高精度な顔検出アルゴリズム LAFD (Light and accurate face detection) を提案する。
アルゴリズムのバックボーンネットワークは、畳み込みカーネルのサイズを調整する修正されたMobileNetV3ネットワークである。
入力画像が前処理され、長さが1560px、幅が1200pxとなると、平均精度は86.2%となる。
論文 参考訳(メタデータ) (2023-08-08T15:36:57Z) - An Empirical Study of Large-Scale Data-Driven Full Waveform Inversion [33.19446101601603]
本稿では,ビッグデータがディープラーニングモデルに与える影響について検討し,FWI(Full Waveform Inversion)問題の解法を提案する。
我々は470万組の地震データと速度マップを含むOpenFWIの10個の2次元サブセットの組み合わせでFWIモデルを訓練し、評価する。
実験の結果,MAEは平均13.03%,MSEは7.19%,SSIMは1.87%の改善が得られた。
論文 参考訳(メタデータ) (2023-07-28T08:32:11Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Active Learning in Brain Tumor Segmentation with Uncertainty Sampling,
Annotation Redundancy Restriction, and Data Initialization [17.3513750927719]
深層学習モデルは、医療用3Dイメージングにおいて大きな可能性を示しているが、その開発は、高価な大量の注釈付きデータによって制限されている。
アクティブラーニング(AL)は、パフォーマンスを損なうことなく、最も情報性の高いデータサンプルのサブセットでモデルをトレーニングすることで、この問題に対処する。
我々は、異なるAL戦略を比較し、最先端のパフォーマンスに必要なデータ量を最小化するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-05T04:45:08Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - Improving Deep-learning-based Semi-supervised Audio Tagging with Mixup [2.707154152696381]
SSL(Semi-supervised Learning)メソッドは、ラベルのないデータを利用して画像データセットに最先端の結果を提供する。
本稿では,音声タグ付けのタスクに,最近のSSLメソッドを4つ適用した。
論文 参考訳(メタデータ) (2021-02-16T14:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。