論文の概要: Tracking spatial temporal details in ultrasound long video via wavelet analysis and memory bank
- arxiv url: http://arxiv.org/abs/2512.15066v1
- Date: Wed, 17 Dec 2025 04:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.850793
- Title: Tracking spatial temporal details in ultrasound long video via wavelet analysis and memory bank
- Title(参考訳): ウェーブレット解析とメモリバンクを用いた超音波長ビデオにおける空間的時間的詳細の追跡
- Authors: Chenxiao Zhang, Runshi Zhang, Junchen Wang,
- Abstract要約: 超音波ビデオの低コントラストレベルとノイズ背景は、臓器境界の誤認を引き起こす。
本稿では,メモリバンクを用いたウェーブレットフィルタと融合ネットワークを提案し,詳細な空間的特徴を抽出する。
提案法は, 甲状腺結節をより正確に分節し, 超音波像を長時間撮影する症例に対して有効性を示した。
- 参考スコア(独自算出の注目度): 5.015880223095155
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical ultrasound videos are widely used for medical inspections, disease diagnosis and surgical planning. High-fidelity lesion area and target organ segmentation constitutes a key component of the computer-assisted surgery workflow. The low contrast levels and noisy backgrounds of ultrasound videos cause missegmentation of organ boundary, which may lead to small object losses and increase boundary segmentation errors. Object tracking in long videos also remains a significant research challenge. To overcome these challenges, we propose a memory bank-based wavelet filtering and fusion network, which adopts an encoder-decoder structure to effectively extract fine-grained detailed spatial features and integrate high-frequency (HF) information. Specifically, memory-based wavelet convolution is presented to simultaneously capture category, detailed information and utilize adjacent information in the encoder. Cascaded wavelet compression is used to fuse multiscale frequency-domain features and expand the receptive field within each convolutional layer. A long short-term memory bank using cross-attention and memory compression mechanisms is designed to track objects in long video. To fully utilize the boundary-sensitive HF details of feature maps, an HF-aware feature fusion module is designed via adaptive wavelet filters in the decoder. In extensive benchmark tests conducted on four ultrasound video datasets (two thyroid nodule, the thyroid gland, the heart datasets) compared with the state-of-the-art methods, our method demonstrates marked improvements in segmentation metrics. In particular, our method can more accurately segment small thyroid nodules, demonstrating its effectiveness for cases involving small ultrasound objects in long video. The code is available at https://github.com/XiAooZ/MWNet.
- Abstract(参考訳): 医用超音波ビデオは、医療検査、疾患診断、手術計画に広く使われている。
高忠実度病変領域と目標臓器セグメンテーションは、コンピュータ支援手術ワークフローの重要な構成要素である。
超音波ビデオの低コントラストレベルとノイズ背景は、臓器の境界のずれを引き起こし、小さな物体の損失を招き、境界のセグメンテーション誤差を増大させる可能性がある。
長いビデオにおけるオブジェクトの追跡も重要な研究課題である。
これらの課題を克服するために,エンコーダデコーダ構造を採用し,詳細な空間的特徴を効果的に抽出し,高周波(HF)情報を統合したメモリバンクベースのウェーブレットフィルタリング・融合ネットワークを提案する。
具体的には、メモリベースのウェーブレット畳み込みを行い、カテゴリと詳細情報を同時にキャプチャし、エンコーダ内の隣接情報を利用する。
カスケードウェーブレット圧縮は、マルチスケールの周波数領域の特徴を融合させ、各畳み込み層内の受容場を拡張するために用いられる。
クロスアテンションとメモリ圧縮機構を用いた長期記憶バンクは、ロングビデオ内のオブジェクトを追跡するように設計されている。
HF対応機能融合モジュールをデコーダの適応ウェーブレットフィルタを用いて設計する。
4つの超音波ビデオデータセット(2つの甲状腺結節、甲状腺、心臓のデータセット)で行われた広範囲なベンチマークテストでは、最先端の手法と比較して、セグメンテーション指標の顕著な改善が示されている。
特に, 甲状腺結節をより正確に分節し, 超音波像を長時間撮影した場合に有効であることを示す。
コードはhttps://github.com/XiAooZ/MWNet.comで入手できる。
関連論文リスト
- FreqDINO: Frequency-Guided Adaptation for Generalized Boundary-Aware Ultrasound Image Segmentation [18.491659279102993]
境界認識と構造整合性を高める周波数誘導セグメンテーションフレームワークFreqDINOを提案する。
具体的には、低周波構造とマルチスケール高周波境界の詳細を分離するためのマルチスケール周波数抽出・アライメント戦略を考案する。
また、高周波成分から境界プロトタイプを抽出し、空間的特徴を洗練するFGBR( Frequency-Guided Boundary Refinement)モジュールも導入する。
論文 参考訳(メタデータ) (2025-12-12T07:15:38Z) - UESA-Net: U-Shaped Embedded Multidirectional Shrinkage Attention Network for Ultrasound Nodule Segmentation [12.967178888045728]
既存のネットワークは、低レベルの空間的詳細と高レベルのセマンティクスの整合に苦慮している。
我々は,多方向縮小に着目したU字型ネットワークUESA-Netを提案する。
2つの公開データセットにおいて、UESA-Netは、それぞれ0.8487と0.6495の交差一致(IoU)スコアで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-09-26T14:54:38Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - A Spatial-Temporal Deformable Attention based Framework for Breast
Lesion Detection in Videos [107.96514633713034]
本稿では,STNet という空間的・時間的変形可能なアテンションベースのフレームワークを提案する。
我々のSTNetは、局所的な空間的時間的特徴融合を行うために、空間的時間的変形可能なアテンションモジュールを導入している。
乳腺病変の超音波画像データセットを用いた実験により,STNetは最先端の検出性能を得ることができた。
論文 参考訳(メタデータ) (2023-09-09T07:00:10Z) - Unlocking Fine-Grained Details with Wavelet-based High-Frequency
Enhancement in Transformers [4.208461204572879]
医用画像のセグメンテーションは、診断、治療計画、疾患モニタリングにおいて重要な役割を担っている。
本稿では,自己注意マップを慎重に再設計することで,トランスフォーマーモデルの局所的特徴不足に対処する。
そこで本研究では,マルチスケールのコンテキスト拡張ブロックをスキップ接続内で提案し,スケール間の依存関係を適応的にモデル化する。
論文 参考訳(メタデータ) (2023-08-25T15:42:19Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging [0.0]
新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージを高速化するツールの必要性を強調している。
提案手法は,この方向への一歩である。
そこで我々は,新しい報酬を伴う教師なし強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-03T04:50:35Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。