論文の概要: Is Two-shot All You Need? A Label-efficient Approach for Video
Segmentation in Breast Ultrasound
- arxiv url: http://arxiv.org/abs/2402.04921v1
- Date: Wed, 7 Feb 2024 14:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:49:11.586598
- Title: Is Two-shot All You Need? A Label-efficient Approach for Video
Segmentation in Breast Ultrasound
- Title(参考訳): 必要なものは2発か?
乳房超音波画像分割におけるラベル効率の検討
- Authors: Jiajun Zeng, Ruobing Huang, Dong Ni
- Abstract要約: BUSビデオセグメンテーションのための新しい2ショットトレーニングパラダイムを提案する。
自由範囲の時空一貫性をキャプチャできるだけでなく、ソース依存の拡張スキームも利用できる。
その結果、トレーニングラベルは1.9%しか与えられていないが、完全に注釈付けされたものと比較するとパフォーマンスが向上した。
- 参考スコア(独自算出の注目度): 4.113689581316844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast lesion segmentation from breast ultrasound (BUS) videos could assist
in early diagnosis and treatment. Existing video object segmentation (VOS)
methods usually require dense annotation, which is often inaccessible for
medical datasets. Furthermore, they suffer from accumulative errors and a lack
of explicit space-time awareness. In this work, we propose a novel two-shot
training paradigm for BUS video segmentation. It not only is able to capture
free-range space-time consistency but also utilizes a source-dependent
augmentation scheme. This label-efficient learning framework is validated on a
challenging in-house BUS video dataset. Results showed that it gained
comparable performance to the fully annotated ones given only 1.9% training
labels.
- Abstract(参考訳): 乳房超音波(bus)ビデオからの乳腺病変分画は早期診断と治療に有用であった。
既存のビデオオブジェクトセグメンテーション(VOS)メソッドは、しばしば医学的なデータセットにはアクセスできない高密度アノテーションを必要とする。
さらに、累積的なエラーと明確な時空認識の欠如に苦しむ。
本研究では,BUSビデオセグメンテーションのための新しい2ショットトレーニングパラダイムを提案する。
自由範囲の時空一貫性をキャプチャできるだけでなく、ソース依存の強化スキームも利用できる。
このラベル効率のよい学習フレームワークは、難しい社内のバスビデオデータセット上で検証される。
その結果、トレーニングラベルが1.9%しか与えられていないものに比べてパフォーマンスが向上した。
関連論文リスト
- A Spatial-Temporal Progressive Fusion Network for Breast Lesion Segmentation in Ultrasound Videos [7.0117363464728815]
超音波画像による乳房病変の分節化の最大の課題は、フレーム内とフレーム間の両方の病変を同時に活用する方法である。
本稿では,ビデオベース乳房病変分割問題に対する新しい空間進行核融合ネットワーク(STPFNet)を提案する。
STPFNetは、最先端の方法よりも優れた乳房病変検出性能を実現する。
論文 参考訳(メタデータ) (2024-03-18T11:56:32Z) - Semi- and Weakly-Supervised Learning for Mammogram Mass Segmentation with Limited Annotations [49.33388736227072]
本稿では,マスセグメンテーションのための半弱教師付き学習フレームワークを提案する。
良好な性能を得るために, 限られた強ラベルのサンプルと十分な弱ラベルのサンプルを用いる。
CBIS-DDSMおよびINbreastデータセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-03-14T12:05:25Z) - Vivim: a Video Vision Mamba for Medical Video Segmentation [52.11785024350253]
本稿では、医用ビデオセグメンテーションタスクのためのビデオビジョンマンバベースのフレームワークVivimを提案する。
我々のビビムは、長期表現を様々なスケールのシーケンスに効果的に圧縮することができる。
超音波検査では甲状腺分節,乳房病変分節,大腸内視鏡検査ではポリープ分節が有効で有効であった。
論文 参考訳(メタデータ) (2024-01-25T13:27:03Z) - Shifting More Attention to Breast Lesion Segmentation in Ultrasound
Videos [43.454994341021276]
572本の動画と34,300本の注釈付きフレームからなるUSビデオ乳房病変セグメンテーションデータセットを精査した。
周波数領域から時間的特徴を学習する新しい周波数・局所化特徴集約ネットワーク(FLA-Net)を提案する。
我々のアノテーション付きデータセットと2つの公開ビデオポリプセグメンテーションデータセットに関する実験は、提案したFLA-Netが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-10-03T07:50:32Z) - A Simple Framework for Open-Vocabulary Segmentation and Detection [85.21641508535679]
我々は,異なるセグメンテーションと検出データセットから共同で学習する,シンプルなオープン語彙検出フレームワークOpenSeeDを提案する。
まず、事前学習されたテキストエンコーダを導入し、視覚概念を2つのタスクにエンコードし、それらの共通意味空間を学習する。
プレトレーニング後,本モデルでは,セグメンテーションと検出の両方において,競争力あるいは強いゼロショット転送性を示す。
論文 参考訳(メタデータ) (2023-03-14T17:58:34Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos [43.42513012531214]
乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
超音波映像における胸部病変検出のためのクリップレベル・ビデオレベルのアグリゲートネットワーク(CVA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-01T01:37:50Z) - Weakly Supervised Contrastive Learning for Better Severity Scoring of
Lung Ultrasound [0.044364554283083675]
超音波スキャンの外観を評価することに依存する、いくつかのAIベースの患者重症度評価モデルが提案されている。
ビデオクリップ中の全ての超音波フレームにラベルを付けるという課題に対処する。
比較学習法では,ビデオクリップの重大度ラベルを,個々のフレームに対して弱い重大度ラベルとして扱う。
従来のクロスエントロピー損失に基づくトレーニングよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-01-18T23:45:18Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。