論文の概要: A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos
- arxiv url: http://arxiv.org/abs/2207.00141v1
- Date: Fri, 1 Jul 2022 01:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 14:14:17.480094
- Title: A New Dataset and A Baseline Model for Breast Lesion Detection in
Ultrasound Videos
- Title(参考訳): 超音波映像における乳房病変検出のための新しいデータセットとベースラインモデル
- Authors: Zhi Lin, Junhao Lin, Lei Zhu, Huazhu Fu, Jing Qin, Liansheng Wang
- Abstract要約: 乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
超音波映像における胸部病変検出のためのクリップレベル・ビデオレベルのアグリゲートネットワーク(CVA-Net)を提案する。
- 参考スコア(独自算出の注目度): 43.42513012531214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast lesion detection in ultrasound is critical for breast cancer
diagnosis. Existing methods mainly rely on individual 2D ultrasound images or
combine unlabeled video and labeled 2D images to train models for breast lesion
detection. In this paper, we first collect and annotate an ultrasound video
dataset (188 videos) for breast lesion detection. Moreover, we propose a
clip-level and video-level feature aggregated network (CVA-Net) for addressing
breast lesion detection in ultrasound videos by aggregating video-level lesion
classification features and clip-level temporal features. The clip-level
temporal features encode local temporal information of ordered video frames and
global temporal information of shuffled video frames. In our CVA-Net, an
inter-video fusion module is devised to fuse local features from original video
frames and global features from shuffled video frames, and an intra-video
fusion module is devised to learn the temporal information among adjacent video
frames. Moreover, we learn video-level features to classify the breast lesions
of the original video as benign or malignant lesions to further enhance the
final breast lesion detection performance in ultrasound videos. Experimental
results on our annotated dataset demonstrate that our CVA-Net clearly
outperforms state-of-the-art methods. The corresponding code and dataset are
publicly available at \url{https://github.com/jhl-Det/CVA-Net}.
- Abstract(参考訳): 乳癌の診断には超音波による乳腺病変の検出が重要である。
既存の方法は、主に個々の2D超音波画像に依存するか、ラベル付きビデオとラベル付き2D画像を組み合わせて、乳房病変検出のモデルを訓練する。
本稿では,乳房病変検出のための超音波ビデオデータセット(188ビデオ)をまず収集し,注釈する。
さらに,ビデオレベルの病変分類機能とクリップレベルの時間的特徴を集約することにより,胸部病変検出に対処するクリップレベルの特徴集約ネットワーク(CVA-Net)を提案する。
クリップレベルの時間的特徴は、順序付けられたビデオフレームの局所時間情報とシャッフルされたビデオフレームのグローバル時間情報をエンコードする。
cva-netでは、オリジナルビデオフレームから局所的な特徴とシャッフルビデオフレームからグローバルな特徴を融合するビデオ間融合モジュールを考案し、隣接するビデオフレーム間の時間的情報を学習するためにビデオ内融合モジュールを考案する。
また,本映像の乳腺病変を良性または悪性病変と分類するビデオレベルの特徴を習得し,超音波映像における乳腺病変検出性能をさらに向上させる。
注釈付きデータセットの実験結果から、私たちのCVA-Netは最先端の手法よりも明らかに優れています。
対応するコードとデータセットは \url{https://github.com/jhl-det/cva-net} で公開されている。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - A Spatial-Temporal Progressive Fusion Network for Breast Lesion Segmentation in Ultrasound Videos [7.0117363464728815]
超音波画像による乳房病変の分節化の最大の課題は、フレーム内とフレーム間の両方の病変を同時に活用する方法である。
本稿では,ビデオベース乳房病変分割問題に対する新しい空間進行核融合ネットワーク(STPFNet)を提案する。
STPFNetは、最先端の方法よりも優れた乳房病変検出性能を実現する。
論文 参考訳(メタデータ) (2024-03-18T11:56:32Z) - Shifting More Attention to Breast Lesion Segmentation in Ultrasound
Videos [43.454994341021276]
572本の動画と34,300本の注釈付きフレームからなるUSビデオ乳房病変セグメンテーションデータセットを精査した。
周波数領域から時間的特徴を学習する新しい周波数・局所化特徴集約ネットワーク(FLA-Net)を提案する。
我々のアノテーション付きデータセットと2つの公開ビデオポリプセグメンテーションデータセットに関する実験は、提案したFLA-Netが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-10-03T07:50:32Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - OnUVS: Online Feature Decoupling Framework for High-Fidelity Ultrasound
Video Synthesis [34.07625938756013]
ソノグラフィーは、包括的な情報を集めるために対応する動的解剖構造を観察しなければならない。
アメリカのビデオの合成は、この問題に対する有望な解決策になるかもしれない。
我々は,高忠実度USビデオ合成のためのオンライン機能分離フレームワークOnUVSを提案する。
論文 参考訳(メタデータ) (2023-08-16T10:16:50Z) - Boosting Breast Ultrasound Video Classification by the Guidance of
Keyframe Feature Centers [16.527815681294534]
超音波映像分類の性能を高めるため,KGA-Netとコヒーレンス損失を提案する。
本手法は,公開BUSVデータセットの性能を大きなマージンで向上させる。
論文 参考訳(メタデータ) (2023-06-12T05:30:09Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。