論文の概要: Exploring Weakly Supervised Semantic Segmentation Ensembles for Medical
Imaging Systems
- arxiv url: http://arxiv.org/abs/2303.07896v2
- Date: Thu, 16 Mar 2023 08:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 11:32:41.306405
- Title: Exploring Weakly Supervised Semantic Segmentation Ensembles for Medical
Imaging Systems
- Title(参考訳): 医用イメージングシステムのための弱監視セマンティックセマンティックセマンティックアンサンブルの探索
- Authors: Erik Ostrowski and Bharath Srinivas Prabakaran and Muhammad Shafique
- Abstract要約: 画像中の医療条件の信頼性の高い分類と検出のための枠組みを提案する。
我々のフレームワークは、まず低しきい値CAMを用いてターゲットオブジェクトを高い確実性でカバーする。
我々は,BRATSでは最大8%,DECATHLONデータセットでは6%の改善ダイススコアを実証した。
- 参考スコア(独自算出の注目度): 11.693197342734152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable classification and detection of certain medical conditions, in
images, with state-of-the-art semantic segmentation networks, require vast
amounts of pixel-wise annotation. However, the public availability of such
datasets is minimal. Therefore, semantic segmentation with image-level labels
presents a promising alternative to this problem. Nevertheless, very few works
have focused on evaluating this technique and its applicability to the medical
sector. Due to their complexity and the small number of training examples in
medical datasets, classifier-based weakly supervised networks like class
activation maps (CAMs) struggle to extract useful information from them.
However, most state-of-the-art approaches rely on them to achieve their
improvements. Therefore, we propose a framework that can still utilize the
low-quality CAM predictions of complicated datasets to improve the accuracy of
our results. Our framework achieves that by first utilizing lower threshold
CAMs to cover the target object with high certainty; second, by combining
multiple low-threshold CAMs that even out their errors while highlighting the
target object. We performed exhaustive experiments on the popular multi-modal
BRATS and prostate DECATHLON segmentation challenge datasets. Using the
proposed framework, we have demonstrated an improved dice score of up to 8% on
BRATS and 6% on DECATHLON datasets compared to the previous state-of-the-art.
- Abstract(参考訳): 画像中の特定の医療状態の信頼性の高い分類と検出には、最先端のセマンティックセグメンテーションネットワークが必要となる。
しかし、そのようなデータセットの公開は最小限である。
したがって,画像レベルのラベルによるセマンティックセグメンテーションは,この問題に対して有望な代替手段となる。
それにもかかわらず、この技術とその医療分野への適用性を評価することに重点を置く研究はほとんどない。
その複雑さと、医療データセットにおける少数のトレーニング例のため、分類器に基づくクラスアクティベーションマップ(CAM)のような弱い教師付きネットワークは、それらから有用な情報を抽出するのに苦労する。
しかし、最先端のアプローチのほとんどは、改善を達成するためにそれらに依存している。
そこで本稿では,複雑なデータセットの低品質CAM予測を引き続き活用して,結果の精度を向上させるフレームワークを提案する。
本フレームワークは,まず低閾値CAMを用いて目標対象を高い精度でカバーし,第2に,目標対象を強調表示しながらエラーを発生させる複数の低閾値CAMを組み合わせる。
人気のあるマルチモーダルブラットと前立腺デカトロンセグメンテーションチャレンジデータセットについて,徹底的な実験を行った。
提案フレームワークを用いて,従来のデータと比較して,ブラットで最大8%,デキャスロンデータセットで6%の改善diceスコアを実証した。
関連論文リスト
- MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - Semi-Supervised Semantic Segmentation of Vessel Images using Leaking
Perturbations [1.5791732557395552]
Leaking GANは、網膜血管セグメンテーションのためのGANベースの半教師付きアーキテクチャである。
私たちのキーとなるアイデアは、ジェネレータから情報を漏らすことで識別器を汚染することです。
これにより、より穏健な世代がGANのトレーニングに役立ちます。
論文 参考訳(メタデータ) (2021-10-22T18:25:08Z) - Few-shot segmentation of medical images based on meta-learning with
implicit gradients [0.48861336570452174]
医用画像セグメンテーションのための数ショット設定において,最適化に基づく暗黙的メタ学習iMAMLアルゴリズムを活用することを提案する。
このアプローチでは、さまざまなトレーニングサンプルから学んだ重みを活用でき、新しい未知のデータセットにデプロイすることができます。
論文 参考訳(メタデータ) (2021-06-06T19:52:06Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - MIDeepSeg: Minimally Interactive Segmentation of Unseen Objects from
Medical Images Using Deep Learning [15.01235930304888]
ユーザインプットとしてクリックのみを必要とすることによる高効率な深層学習に基づく対話型セグメンテーション手法を提案する。
提案フレームワークは,最先端の対話型フレームワークと比較して,ユーザインタラクションが少なく,時間も少なく,正確な結果が得られる。
論文 参考訳(メタデータ) (2021-04-25T14:15:17Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。