論文の概要: Image translation of Ultrasound to Pseudo Anatomical Display Using
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2202.08053v1
- Date: Wed, 16 Feb 2022 13:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:04:32.988705
- Title: Image translation of Ultrasound to Pseudo Anatomical Display Using
Artificial Intelligence
- Title(参考訳): 人工知能を用いた擬似解剖ディスプレイへの超音波画像変換
- Authors: Lilach Barkat, Moti Freiman, Haim Azhari
- Abstract要約: CycleGANは、各ドメインプロパティを個別に学習し、クロスドメインサイクルの一貫性を強制するために使用された。
生成された擬似解剖画像は、より明確な境界定義と明瞭なコントラストで、病変の視覚的識別を改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound is the second most used modality in medical imaging. It is cost
effective, hazardless, portable and implemented routinely in numerous clinical
procedures. Nonetheless, image quality is characterized by granulated
appearance, poor SNR and speckle noise. Specific for malignant tumors, the
margins are blurred and indistinct. Thus, there is a great need for improving
ultrasound image quality. We hypothesize that this can be achieved by
translation into a more realistic anatomic display, using neural networks. In
order to achieve this goal, the preferable approach would be to use a set of
paired images. However, this is practically impossible in our case. Therefore,
CycleGAN was used, to learn each domain properties separately and enforce cross
domain cycle consistency. The two datasets which were used for training the
model were "Breast Ultrasound Images" (BUSI) and a set of optic images of
poultry breast tissue samples acquired at our lab. The generated pseudo
anatomical images provide improved visual discrimination of the lesions with
clearer border definition and pronounced contrast. Furthermore, the algorithm
manages to overcome the acoustic shadows artifacts commonly appearing in
ultrasonic images. In order to evaluate the preservation of the anatomical
features, the lesions in the ultrasonic images and the generated pseudo
anatomical images were both automatically segmented and compared. This
comparison yielded median dice score of 0.78 for the benign tumors and 0.43 for
the malignancies. Median lesion center error of 2.38% and 8.42% for the benign
and malignancies respectively and median area error index of 0.77% and 5.06%
for the benign and malignancies respectively. In conclusion, these generated
pseudo anatomical images, which are presented in a more intuitive way, preserve
tissue anatomy and can potentially simplify the diagnosis and improve the
clinical outcome.
- Abstract(参考訳): 超音波は医療画像で2番目によく使われるモードである。
費用効果があり、危険がなく、携帯性があり、多くの臨床手順で日常的に実施されている。
それでも画質は粒状化、SNRの低下、スペックルノイズが特徴である。
悪性腫瘍に特有で、マージンはぼやけて不明瞭である。
したがって,超音波画像の品質向上には大きなニーズがある。
ニューラルネットワークを用いて、よりリアルな解剖学的ディスプレイに変換することで実現できると仮定する。
この目標を達成するために、ペア化されたイメージのセットを使用することが好ましいアプローチである。
しかし、私たちの場合、これは事実上不可能です。
そのため、CycleGANを使用して各ドメインプロパティを個別に学習し、クロスドメインサイクルの一貫性を強制した。
このモデルのトレーニングに使用された2つのデータセットは、「Breast Ultrasound Images」(BUSI)と、我々の研究室で取得した乳房組織標本の光学画像である。
生成された擬似解剖画像は、より明確な境界定義と明瞭なコントラストで病変の視覚的識別を改善する。
さらに,このアルゴリズムは超音波画像に一般的に現れる音響的影を克服する。
解剖学的特徴の保存性を評価するため,超音波画像中の病変と生成された擬似解剖学的画像が自動的に分割され比較された。
その結果,良性腫瘍では0.78,悪性腫瘍では0.43であった。
良性腫瘍では, 病変中心誤差が2.38%, 悪性腫瘍では8.42%, 良性腫瘍では0.77%, 悪性腫瘍では5.6%であった。
より直感的に提示されるこれらの擬似解剖像は、組織解剖を保存し、診断を簡素化し、臨床結果を改善する可能性がある。
関連論文リスト
- Few Shot Learning for the Classification of Confocal Laser
Endomicroscopy Images of Head and Neck Tumors [0.33384431000910975]
CLE画像の解剖学的領域への一般化に向けた4つの一般的な数個のショット学習手法の評価を行った。
5例の鼻腔腫瘍 (SNT) 像と, 11例の声帯腫瘍 (VF) 像について, クロスバリデーション法を用いて検討した。
論文 参考訳(メタデータ) (2023-11-13T10:17:00Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Using Spatio-Temporal Dual-Stream Network with Self-Supervised Learning
for Lung Tumor Classification on Radial Probe Endobronchial Ultrasound Video [0.0]
肺がんの生検の過程で、医師はリアルタイム超音波画像を使用して、サンプリングに適した病変を見つける。
これまでの研究では良性肺病変と悪性肺病変を効果的に区別するために2D畳み込みニューラルネットワークを用いてきた。
本研究では,3次元ニューラルネットワークに基づく自動診断システムを設計する。
論文 参考訳(メタデータ) (2023-05-04T10:39:37Z) - Semi-supervised GAN for Bladder Tissue Classification in Multi-Domain
Endoscopic Images [10.48945682277992]
本稿では,3つの主要コンポーネントからなるGANに基づく半サプライズドジェネレーティブ・アドリアル・ネットワーク(GAN)を提案する。
組織分類法で得られた平均分類精度、精度、リコールは、それぞれ0.90, 0.88, 0.89である。
論文 参考訳(メタデータ) (2022-12-21T21:32:36Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Deep Learning models for benign and malign Ocular Tumor Growth
Estimation [3.1558405181807574]
臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
論文 参考訳(メタデータ) (2021-07-09T05:40:25Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。