論文の概要: Unsupervised Unfolded rPCA (U2-rPCA): Deep Interpretable Clutter Filtering for Ultrasound Microvascular Imaging
- arxiv url: http://arxiv.org/abs/2510.00660v1
- Date: Wed, 01 Oct 2025 08:39:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.470766
- Title: Unsupervised Unfolded rPCA (U2-rPCA): Deep Interpretable Clutter Filtering for Ultrasound Microvascular Imaging
- Title(参考訳): Unsupervised Unfolded rPCA: Deep Interpretable Clutter Filtering for Ultrasound Microvascular Imaging (U2-rPCA)
- Authors: Huaying Li, Liansheng Wang, Yinran Chen,
- Abstract要約: 本稿では, 数学的解釈性を保ち, 学習ラベルに影響を受けない教師なしアンフォールド rPCA (U2-rPCA) 手法を提案する。
提案手法は, パワードップラー画像のコントラストノイズ比(CNR)を, 他の手法と比較して2dBから10dBに改善した。
- 参考スコア(独自算出の注目度): 23.398277122009844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-sensitivity clutter filtering is a fundamental step in ultrasound microvascular imaging. Singular value decomposition (SVD) and robust principal component analysis (rPCA) are the main clutter filtering strategies. However, both strategies are limited in feature modeling and tissue-blood flow separation for high-quality microvascular imaging. Recently, deep learning-based clutter filtering has shown potential in more thoroughly separating tissue and blood flow signals. However, the existing supervised filters face the challenges of interpretability and lack of in-vitro and in-vivo ground truths. While the interpretability issue can be addressed by algorithm deep unfolding, the training ground truth remains unsolved. To this end, this paper proposes an unsupervised unfolded rPCA (U2-rPCA) method that preserves mathematical interpretability and is insusceptible to learning labels. Specifically, U2-rPCA is unfolded from an iteratively reweighted least squares (IRLS) rPCA baseline with intrinsic low-rank and sparse regularization. A sparse-enhancement unit is added to the network to strengthen its capability to capture the sparse micro-flow signals. U2-rPCA is like an adaptive filter that is trained with part of the image sequence and then used for the following frames. Experimental validations on a in-silico dataset and public in-vivo datasets demonstrated the outperformance of U2-rPCA when compared with the SVD-based method, the rPCA baseline, and another deep learning-based filter. Particularly, the proposed method improved the contrastto-noise ratio (CNR) of the power Doppler image by 2 dB to 10 dB when compared with other methods. Furthermore, the effectiveness of the building modules of U2-rPCA was validated through ablation studies.
- Abstract(参考訳): 高感度クラッタフィルタリングは超音波微小血管イメージングの基本的なステップである。
特異値分解(SVD)とロバスト主成分分析(rPCA)が主なクラッタフィルタリング戦略である。
しかし、両方の戦略は、高品質の微小血管イメージングのための特徴モデリングと組織-血流分離に限られている。
近年、深層学習に基づくクラッタフィルタリングは、組織と血流の信号をより徹底的に分離する可能性を示している。
しかし、既存の教師付きフィルタは、解釈可能性と、生体内および生体内真実の欠如という課題に直面している。
解釈可能性問題はアルゴリズムの深い展開によって解決できるが、訓練基盤の真理は未解決のままである。
そこで本研究では, 数学的解釈性を保ち, 学習ラベルに影響を受けない, 教師なしアンフォールド rPCA (U2-rPCA) 手法を提案する。
具体的には、U2-rPCAは、本質的に低ランクでスパース正規化された反復再重み付き最小二乗(IRLS)rPCA基線から展開される。
スパースエンハンスメントユニットをネットワークに追加し、スパースマイクロフロー信号を捕捉する能力を強化する。
U2-rPCAは適応フィルタのようなもので、画像シーケンスの一部でトレーニングされ、次のフレームで使用される。
In-silicoデータセットとPublic in-vivoデータセットの実験的検証により、SVDベースの方法、rPCAベースライン、および別のディープラーニングベースのフィルタと比較して、U2-rPCAのパフォーマンスが向上した。
特に,電力ドップラー画像のコントラストノイズ比(CNR)を,他の手法と比較して2dBから10dBに改善した。
さらに,U2-rPCAのビルドモジュールの有効性をアブレーション研究により検証した。
関連論文リスト
- A Novel Preprocessing Unit for Effective Deep Learning based Classification and Grading of Diabetic Retinopathy [0.0]
本研究は,糖尿病網膜症を早期に検出するための枠組みである。
フレームワークには前処理、セグメンテーション、特徴抽出、分類の3段階が含まれている。
提案手法の有効性は,IDRiDとMESSIDORの2つの異なるデータセットを用いて評価する。
論文 参考訳(メタデータ) (2025-09-29T09:11:04Z) - Random Matrix Theory-guided sparse PCA for single-cell RNA-seq data [0.0]
単細胞RNA-seqは個々の細胞の詳細な分子スナップショットを提供する。
ほとんどの研究は、次元減少のための主成分分析(PCA)に依存している。
スパースプリンシパルコンポーネントの推論を導くRMT(Random Matrix Theory)ベースのアプローチでPCAを改善する。
論文 参考訳(メタデータ) (2025-09-18T21:08:38Z) - Machine Intelligence on the Edge: Interpretable Cardiac Pattern Localisation Using Reinforcement Learning [2.309018557701645]
本稿では,従来の単一マッチングフィルタを,強化学習エージェントが設計した一連のフィルタに置き換えるパラダイムであるSequential Matched Filter (SMF)を提案する。
フィルタ設計を逐次決定プロセスとして定式化することにより、SMFは完全に解釈可能な信号固有のフィルタシーケンスを適応的に設計する。
論文 参考訳(メタデータ) (2025-08-29T14:15:35Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Retinal Vessel Segmentation with Pixel-wise Adaptive Filters [47.8629995041574]
本稿では網膜血管分割の課題に対処する2つの新しい手法を提案する。
まず,マルチスケール残差類似度収集(MRSG)と呼ばれる軽量モジュールを考案し,画素ワイド適応フィルタ(PAフィルタ)を生成する。
第2に,セグメント化精度を高めるための応答キュー消去(RCE)戦略を導入する。
論文 参考訳(メタデータ) (2022-02-03T14:40:36Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Joint Blind Deconvolution and Robust Principal Component Analysis for
Blood Flow Estimation in Medical Ultrasound Imaging [8.922669577341225]
本稿では,超高速超音波画像からの高分解能ドップラー血流推定の問題に対処する。
ドップラーデータから血液成分とPSFの両方を推定できるブラインドデコンボリューション法を提案する。
論文 参考訳(メタデータ) (2020-07-10T15:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。