論文の概要: Shifting More Attention to Breast Lesion Segmentation in Ultrasound
Videos
- arxiv url: http://arxiv.org/abs/2310.01861v1
- Date: Tue, 3 Oct 2023 07:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 17:07:32.157782
- Title: Shifting More Attention to Breast Lesion Segmentation in Ultrasound
Videos
- Title(参考訳): 超音波映像における乳房病変の分節化への注意の移動
- Authors: Junhao Lin, Qian Dai, Lei Zhu, Huazhu Fu, Qiong Wang, Weibin Li,
Wenhao Rao, Xiaoyang Huang, Liansheng Wang
- Abstract要約: 572本の動画と34,300本の注釈付きフレームからなるUSビデオ乳房病変セグメンテーションデータセットを精査した。
周波数領域から時間的特徴を学習する新しい周波数・局所化特徴集約ネットワーク(FLA-Net)を提案する。
我々のアノテーション付きデータセットと2つの公開ビデオポリプセグメンテーションデータセットに関する実験は、提案したFLA-Netが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 43.454994341021276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast lesion segmentation in ultrasound (US) videos is essential for
diagnosing and treating axillary lymph node metastasis. However, the lack of a
well-established and large-scale ultrasound video dataset with high-quality
annotations has posed a persistent challenge for the research community. To
overcome this issue, we meticulously curated a US video breast lesion
segmentation dataset comprising 572 videos and 34,300 annotated frames,
covering a wide range of realistic clinical scenarios. Furthermore, we propose
a novel frequency and localization feature aggregation network (FLA-Net) that
learns temporal features from the frequency domain and predicts additional
lesion location positions to assist with breast lesion segmentation. We also
devise a localization-based contrastive loss to reduce the lesion location
distance between neighboring video frames within the same video and enlarge the
location distances between frames from different ultrasound videos. Our
experiments on our annotated dataset and two public video polyp segmentation
datasets demonstrate that our proposed FLA-Net achieves state-of-the-art
performance in breast lesion segmentation in US videos and video polyp
segmentation while significantly reducing time and space complexity. Our model
and dataset are available at https://github.com/jhl-Det/FLA-Net.
- Abstract(参考訳): 超音波(US)ビデオにおける乳腺病変のセグメンテーションは軸索リンパ節転移の診断と治療に不可欠である。
しかし、高品質なアノテーションを備えた、確立された大規模な超音波ビデオデータセットの欠如は、研究コミュニティにとって永続的な課題となった。
この問題を克服するために, 572のビデオと34,300の注釈付きフレームからなるus video breast lesion segmentation datasetを精査し, 幅広い現実的な臨床シナリオを網羅した。
さらに、周波数領域から時間的特徴を学習し、乳房病変の分節を補助する追加の病変位置を予測できる新しい周波数・局所化特徴集約ネットワーク(FLA-Net)を提案する。
また,同一映像内の隣接映像フレーム間の病変位置距離を低減し,異なる超音波映像からのフレーム間の位置距離を拡大するために,局所性に基づくコントラスト損失を考案する。
アノテーション付きデータセットと2つの公開ビデオポリプセグメンテーションデータセットを用いた実験により、米国ビデオにおける乳房病変セグメンテーションにおけるFLA-Netの最先端性能と、ビデオポリプセグメンテーションを実現し、時間と空間の複雑さを著しく低減した。
私たちのモデルとデータセットはhttps://github.com/jhl-det/fla-netで利用可能です。
関連論文リスト
- Is Two-shot All You Need? A Label-efficient Approach for Video
Segmentation in Breast Ultrasound [4.113689581316844]
BUSビデオセグメンテーションのための新しい2ショットトレーニングパラダイムを提案する。
自由範囲の時空一貫性をキャプチャできるだけでなく、ソース依存の拡張スキームも利用できる。
その結果、トレーニングラベルは1.9%しか与えられていないが、完全に注釈付けされたものと比較するとパフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-02-07T14:47:08Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos [43.42513012531214]
乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
超音波映像における胸部病変検出のためのクリップレベル・ビデオレベルのアグリゲートネットワーク(CVA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-01T01:37:50Z) - Graph Convolution Neural Network For Weakly Supervised Abnormality
Localization In Long Capsule Endoscopy Videos [0.0]
本稿では,弱いビデオレベルラベルのみを用いた長時間WCEビデオの終端時間的異常局所化を提案する。
本手法は, グラフ分類タスクにおいて89.9%の精度, 異常フレーム局所化タスクでは97.5%の精度を実現した。
論文 参考訳(メタデータ) (2021-10-18T09:00:24Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z) - PS-DeVCEM: Pathology-sensitive deep learning model for video capsule
endoscopy based on weakly labeled data [0.0]
本稿では, ビデオカプセル内視鏡(VCE)データを用いて, フレームレベルの異常検出と大腸疾患の多ラベル分類を行うための, 病因性深層学習モデル(PS-DeVCEM)を提案する。
我々のモデルは注目に基づく深層マルチインスタンス学習によって駆動され、弱いラベル付きデータでエンドツーエンドに訓練されている。
トレーニング中にフレームアノテーション情報を使わずに、時間的にフレームを病状でローカライズする能力を示す。
論文 参考訳(メタデータ) (2020-11-22T15:33:37Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。