論文の概要: Robust Scatterer Number Density Segmentation of Ultrasound Images
- arxiv url: http://arxiv.org/abs/2201.06143v1
- Date: Sun, 16 Jan 2022 22:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:49:28.298469
- Title: Robust Scatterer Number Density Segmentation of Ultrasound Images
- Title(参考訳): 超音波画像のロバスト散乱器数密度分割
- Authors: Ali K. Z. Tehrani, Ivan M. Rosado-Mendez, and Hassan Rivaz
- Abstract要約: 定量的超音波(QUS)は、臨床スキャナーからの後方散乱エコー信号を用いて組織組織に関する情報を明らかにすることを目的としている。
散乱器数密度は、他のQUSパラメータの推定に影響を与える重要な特性である。
セグメンテーションタスクには畳み込みニューラルネットワーク(CNN)を用い、異なるデータセット上でネットワークをテストした場合のドメインシフトの影響について検討する。
- 参考スコア(独自算出の注目度): 2.599882743586164
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantitative UltraSound (QUS) aims to reveal information about the tissue
microstructure using backscattered echo signals from clinical scanners. Among
different QUS parameters, scatterer number density is an important property
that can affect estimation of other QUS parameters. Scatterer number density
can be classified into high or low scatterer densities. If there are more than
10 scatterers inside the resolution cell, the envelope data is considered as
Fully Developed Speckle (FDS) and otherwise, as Under Developed Speckle (UDS).
In conventional methods, the envelope data is divided into small overlapping
windows (a strategy here we refer to as patching), and statistical parameters
such as SNR and skewness are employed to classify each patch of envelope data.
However, these parameters are system dependent meaning that their distribution
can change by the imaging settings and patch size. Therefore, reference
phantoms which have known scatterer number density are imaged with the same
imaging settings to mitigate system dependency. In this paper, we aim to
segment regions of ultrasound data without any patching. A large dataset is
generated which has different shapes of scatterer number density and mean
scatterer amplitude using a fast simulation method. We employ a convolutional
neural network (CNN) for the segmentation task and investigate the effect of
domain shift when the network is tested on different datasets with different
imaging settings. Nakagami parametric image is employed for the multi-task
learning to improve the performance. Furthermore, inspired by the reference
phantom methods in QUS, A domain adaptation stage is proposed which requires
only two frames of data from FDS and UDS classes. We evaluate our method for
different experimental phantoms and in vivo data.
- Abstract(参考訳): 定量的超音波(qus)は臨床用スキャナーからの後方散乱エコー信号を用いて組織微細構造に関する情報を明らかにすることを目的としている。
異なるQUSパラメータの中で、散乱器数密度は他のQUSパラメータの推定に影響を及ぼす重要な特性である。
散乱体数密度は、高いあるいは低い散乱体密度に分類される。
解像度セル内に10以上の散乱器がある場合、封筒データはFully Developed Speckle (FDS)とみなされ、そうでなければUnder Developed Speckle (UDS)とみなされる。
従来の方法では、エンベロープデータは小さな重なり合う窓(ここではパッチと呼ばれる戦略)に分割され、各エンベロープデータのパッチを分類するためにsnrやスキューネスなどの統計パラメータが用いられる。
しかし、これらのパラメータはシステム依存であり、その分布は画像設定とパッチサイズによって変化する可能性がある。
したがって、散乱数密度が分かっている参照ファントムを同じ撮像設定で撮像し、システムの依存性を緩和する。
本稿では,超音波データの領域をパッチなしで分割することを目的とする。
高速なシミュレーション手法を用いて、散乱器数密度と平均散乱器振幅の異なる形状の大規模データセットを生成する。
セグメンテーションタスクには畳み込みニューラルネットワーク(CNN)を使用し、異なる画像設定の異なるデータセット上でネットワークをテストした場合のドメインシフトの影響を調べる。
中上パラメトリック画像を用いてマルチタスク学習を行い,その性能向上を図る。
さらに、QUSの参照ファントム法にヒントを得て、FDSとUDSの2フレームのデータのみを必要とするドメイン適応ステージを提案する。
実験ファントムとin vivoデータを用いて実験ファントムの評価を行った。
関連論文リスト
- Tailoring the Hyperparameters of a Wide-Kernel Convolutional Neural Network to Fit Different Bearing Fault Vibration Datasets [0.10241134756773229]
最先端のアルゴリズムは、健康な機械軸受や損傷を受けた機械軸受から発生する振動を識別するのにほぼ完璧であると報告されている。
しかし、新しいデータへの応用はどうだろう?
本稿では, 故障検出のためのニューラルネットワークが, 誤パラメータ化によって損なわれることを確認できる。
論文 参考訳(メタデータ) (2024-11-19T09:17:13Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Multi-Source and Test-Time Domain Adaptation on Multivariate Signals using Spatio-Temporal Monge Alignment [59.75420353684495]
コンピュータビジョンやバイオメディカルデータなどの信号に対する機械学習の応用は、ハードウェアデバイスやセッション記録にまたがる変動のため、しばしば課題に直面している。
本研究では,これらの変動を緩和するために,時空間モンジュアライメント(STMA)を提案する。
我々はSTMAが、非常に異なる設定で取得したデータセット間で、顕著で一貫したパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-07-19T13:33:38Z) - OsmLocator: locating overlapping scatter marks with a non-training
generative perspective [48.50108853199417]
重複するマークの配置には、テクスチャの欠如、文脈の少ない情報、ハロー形状、小さなサイズなど、多くの困難がある。
ここでは、クラスタリングに基づく再視覚化の最適化問題として、非学習的生成の観点から定式化する。
特に,異なるマーカーと様々な重なり合いの重なり合いを持つ何百もの散乱画像を含む2023というデータセットを構築し,提案手法を既存の手法と比較した。
論文 参考訳(メタデータ) (2023-12-18T12:39:48Z) - Probabilistic Deep Metric Learning for Hyperspectral Image
Classification [91.5747859691553]
本稿では,ハイパースペクトル画像分類のための確率論的深度学習フレームワークを提案する。
ハイパースペクトルセンサーが捉えた画像に対して、各ピクセルのカテゴリを予測することを目的としている。
我々のフレームワークは、既存のハイパースペクトル画像分類法に容易に適用できる。
論文 参考訳(メタデータ) (2022-11-15T17:57:12Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Deep Estimation of Speckle Statistics Parametric Images [2.599882743586164]
定量的超音波(QUS)は、組織の性質に関する重要な情報を提供する。
QUSパラメトリック画像は、パッチ内ではいくつかの独立したサンプルしか利用できないため、誤検出が可能である。
本稿では,畳み込みニューラルネットワーク(CNN)に基づくQUSパラメトリック画像をパッチなしで推定する手法を提案する。
論文 参考訳(メタデータ) (2022-06-08T20:16:20Z) - Ultrasound Scatterer Density Classification Using Convolutional Neural
Networks by Exploiting Patch Statistics [3.93098730337656]
定量的超音波(QUS)は散乱体密度などの組織特性に関する重要な情報を明らかにすることができる。
分解能セルあたりの散乱体密度は、フル開発スペックル(FDS)または低密度散乱体(LDS)と見なされる
本稿では,QUSのための畳み込みニューラルネットワーク(CNN)アーキテクチャを提案し,シミュレーションデータを用いて学習する。
論文 参考訳(メタデータ) (2020-12-04T17:36:57Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。