論文の概要: APS-USCT: Ultrasound Computed Tomography on Sparse Data via AI-Physic Synergy
- arxiv url: http://arxiv.org/abs/2407.14564v1
- Date: Thu, 18 Jul 2024 20:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:53:36.838135
- Title: APS-USCT: Ultrasound Computed Tomography on Sparse Data via AI-Physic Synergy
- Title(参考訳): APS-USCT:AI-Physic Synergyによるスパースデータの超音波CT
- Authors: Yi Sheng, Hanchen Wang, Yipei Liu, Junhuan Yang, Weiwen Jiang, Youzuo Lin, Lei Yang,
- Abstract要約: 超音波CT(USCT)は優れた医用画像再構成技術である。
その利点にもかかわらず、高品質のUSCT再構成は多数のトランスデューサによる広範なデータ取得に依存している。
APS-USCTと呼ばれる,スパースデータによる撮像を容易にする新しいUSCT手法を提案する。
- 参考スコア(独自算出の注目度): 13.805519939012889
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasound computed tomography (USCT) is a promising technique that achieves superior medical imaging reconstruction resolution by fully leveraging waveform information, outperforming conventional ultrasound methods. Despite its advantages, high-quality USCT reconstruction relies on extensive data acquisition by a large number of transducers, leading to increased costs, computational demands, extended patient scanning times, and manufacturing complexities. To mitigate these issues, we propose a new USCT method called APS-USCT, which facilitates imaging with sparse data, substantially reducing dependence on high-cost dense data acquisition. Our APS-USCT method consists of two primary components: APS-wave and APS-FWI. The APS-wave component, an encoder-decoder system, preprocesses the waveform data, converting sparse data into dense waveforms to augment sample density prior to reconstruction. The APS-FWI component, utilizing the InversionNet, directly reconstructs the speed of sound (SOS) from the ultrasound waveform data. We further improve the model's performance by incorporating Squeeze-and-Excitation (SE) Blocks and source encoding techniques. Testing our method on a breast cancer dataset yielded promising results. It demonstrated outstanding performance with an average Structural Similarity Index (SSIM) of 0.8431. Notably, over 82% of samples achieved an SSIM above 0.8, with nearly 61% exceeding 0.85, highlighting the significant potential of our approach in improving USCT image reconstruction by efficiently utilizing sparse data.
- Abstract(参考訳): 超音波CT(Ultrasound Computed Tomography, USCT)は, 波形情報を完全に活用し, より優れた医用画像再構成を実現する技術である。
その利点にもかかわらず、高品質のUSCT再構成は多数のトランスデューサによる広範なデータ取得に依存しており、コストの増大、計算要求、患者のスキャン時間の拡張、製造複雑さにつながっている。
これらの問題を緩和するために,スパースデータによるイメージングを容易にするUSCT法であるAPS-USCTを提案し,高コストな高密度データ取得への依存を著しく低減する。
APS-USCT法は, APS-wave と APS-FWI の2成分からなる。
エンコーダデコーダシステムであるAPS波成分は、波形データを前処理し、スパースデータを密度の高い波形に変換して、復元前にサンプル密度を増大させる。
InversionNetを利用するAPS-FWIコンポーネントは、超音波波形データから音速(SOS)を直接再構成する。
我々は、Squeeze-and-Excitation(SE)ブロックとソース符号化技術を組み込むことで、モデルの性能をさらに向上する。
乳癌データセットを用いて本法を試験した結果,有望な結果が得られた。
平均構造類似度指数(SSIM)は0.8431である。
特に,82%以上のサンプルが0.8以上のSSIMを達成し,約61%が0.85を超えた。
関連論文リスト
- DCT-HistoTransformer: Efficient Lightweight Vision Transformer with DCT Integration for histopathological image analysis [0.0]
視覚変換器(ViTs)を用いた乳がんの新しい軽度分類法を提案する。
離散コサイン変換(DCT)アテンションとMobileConvの並列処理経路を組み込むことで、空間領域の画像データを周波数領域に変換し、画像内の高周波数をフィルタリングするといった利点を利用する。
提案モデルでは,バイナリ分類では96.00%$pm$0.48%,マルチクラス分類では87.85%$pm$0.93%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-24T21:16:56Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - CT Material Decomposition using Spectral Diffusion Posterior Sampling [3.8673630752805446]
本研究では,拡散後サンプリング(DPS)に基づく新しい深層学習手法を提案する。
逆プロセスに必要な時間ステップ数を削減するために、ジャンプ開始プロセスを使用する高速で安定した変種が提案されている。
その結果, スペクトルCTデータに基づく比較的高速かつ高精度な材料分解を実現するJSDPSの可能性が示された。
論文 参考訳(メタデータ) (2024-02-05T19:35:57Z) - Fast Sampling generative model for Ultrasound image reconstruction [3.3545464959630578]
本稿では,超音波信号とデータ駆動前のデータ一貫性を同時に実施する新しいサンプリングフレームワークを提案する。
高度な拡散モデルを利用することで、高品質な画像の生成が大幅に高速化される。
論文 参考訳(メタデータ) (2023-12-15T03:28:17Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Sinogram upsampling using Primal-Dual UNet for undersampled CT and
radial MRI reconstruction [0.4199844472131921]
Primal-Dual ネットワークは、疎サンプリングされたCTデータを再構成するためのディープラーニングベースの手法である。
本稿では,Primal-Dual UNetを導入し,精度と再構築速度の点でPrimal-Dualネットワークを改善した。
論文 参考訳(メタデータ) (2021-12-26T19:31:34Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。