論文の概要: Influence of High-Performance Image-to-Image Translation Networks on Clinical Visual Assessment and Outcome Prediction: Utilizing Ultrasound to MRI Translation in Prostate Cancer
- arxiv url: http://arxiv.org/abs/2501.18109v1
- Date: Thu, 30 Jan 2025 03:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:13:49.383162
- Title: Influence of High-Performance Image-to-Image Translation Networks on Clinical Visual Assessment and Outcome Prediction: Utilizing Ultrasound to MRI Translation in Prostate Cancer
- Title(参考訳): ハイパフォーマンス画像変換ネットワークが臨床視力評価および予後予測に及ぼす影響:前立腺癌におけるMRI画像翻訳を用いた検討
- Authors: Mohammad R. Salmanpour, Amin Mousavi, Yixi Xu, William B Weeks, Ilker Hacihaliloglu,
- Abstract要約: 本研究では,イメージ・ツー・イメージ・トランスフォーメーション(I2I)ネットワークのコア特性について検討し,その有効性と適応性に着目した。
- 参考スコア(独自算出の注目度): 1.1184789007828977
- License:
- Abstract: Purpose: This study examines the core traits of image-to-image translation (I2I) networks, focusing on their effectiveness and adaptability in everyday clinical settings. Methods: We have analyzed data from 794 patients diagnosed with prostate cancer (PCa), using ten prominent 2D/3D I2I networks to convert ultrasound (US) images into MRI scans. We also introduced a new analysis of Radiomic features (RF) via the Spearman correlation coefficient to explore whether networks with high performance (SSIM>85%) could detect subtle RFs. Our study further examined synthetic images by 7 invited physicians. As a final evaluation study, we have investigated the improvement that are achieved using the synthetic MRI data on two traditional machine learning and one deep learning method. Results: In quantitative assessment, 2D-Pix2Pix network substantially outperformed the other 7 networks, with an average SSIM~0.855. The RF analysis revealed that 76 out of 186 RFs were identified using the 2D-Pix2Pix algorithm alone, although half of the RFs were lost during the translation process. A detailed qualitative review by 7 medical doctors noted a deficiency in low-level feature recognition in I2I tasks. Furthermore, the study found that synthesized image-based classification outperformed US image-based classification with an average accuracy and AUC~0.93. Conclusion: This study showed that while 2D-Pix2Pix outperformed cutting-edge networks in low-level feature discovery and overall error and similarity metrics, it still requires improvement in low-level feature performance, as highlighted by Group 3. Further, the study found using synthetic image-based classification outperformed original US image-based methods.
- Abstract(参考訳): 目的: 本研究は, 日常臨床における画像間翻訳(I2I)ネットワークのコア特性について検討し, その有効性と適応性に着目した。
方法: 前立腺癌 (PCa) と診断された794例の2D/3D I2Iネットワークを用いて超音波(US)画像のMRI画像への変換を行った。
また,SSIM>85%のネットワークが微妙なRFを検出できるかどうかを探索するため,スピアマン相関係数を用いて放射能特性(RF)を新たに解析した。
さらに, 招待医師7名による合成画像について検討した。
最後の評価研究として,従来の2つの機械学習と1つのディープラーニングの合成MRIデータを用いて得られた改善について検討した。
結果: 定量的評価では, 2D-Pix2Pixネットワークは, SSIM~0.855の平均で, 他の7ネットワークより大幅に優れていた。
RF分析の結果、186個のRFのうち76個のRFが2D-Pix2Pixアルゴリズムだけで同定された。
7名の医師による詳細な質的レビューでは、I2Iタスクにおける低レベル特徴認識の欠如が指摘された。
さらに,合成画像ベース分類は,平均精度とAUC~0.93で米国画像ベース分類より優れていた。
結論: 本研究は,2D-Pix2Pixが低レベルの特徴発見と全体的なエラーおよび類似度指標において,最先端ネットワークよりも優れていたが,Group 3で強調されているように,依然として低レベルの特徴性能の改善が必要であることを示した。
さらに, 合成画像を用いた分類法は, アメリカ独自の画像ベース法よりも優れていた。
関連論文リスト
- Comparative clinical evaluation of "memory-efficient" synthetic 3d generative adversarial networks (gan) head-to-head to state of art: results on computed tomography of the chest [35.858837946090674]
GAN(Generative Adversarial Networks)は、医用画像の生成に利用されている。
本研究では,高分解能な3次元医用画像を生成するために,条件付ランダムフィールド(CRF)を取り入れた新しいメモリ効率のGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-26T15:57:44Z) - Deep Few-view High-resolution Photon-counting Extremity CT at Halved Dose for a Clinical Trial [8.393536317952085]
ニュージーランドの臨床試験において,PCCT画像の半減量と2倍の速度で再現する深層学習に基づくアプローチを提案する。
本稿では,GPUメモリの制限を緩和するパッチベースのボリュームリファインメントネットワーク,合成データを用いたトレーニングネットワーク,およびモデルベースの反復リファインメントを用いて,合成データと実世界のギャップを埋める。
論文 参考訳(メタデータ) (2024-03-19T00:07:48Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - HGT: A Hierarchical GCN-Based Transformer for Multimodal Periprosthetic
Joint Infection Diagnosis Using CT Images and Text [0.0]
補綴関節感染症(PJI)は重篤な合併症である。
現在,CT画像とPJIの数値テキストデータを組み合わせた統一診断基準が確立されていない。
本研究では,ディープラーニングとマルチモーダル技術に基づく診断手法であるHGTを紹介する。
論文 参考訳(メタデータ) (2023-05-29T11:25:57Z) - Lightweight 3D Convolutional Neural Network for Schizophrenia diagnosis
using MRI Images and Ensemble Bagging Classifier [1.487444917213389]
本稿では,MRI画像を用いた統合失調症診断のための軽量3次元畳み込みニューラルネットワーク(CNN)フレームワークを提案する。
精度は92.22%、感度94.44%、特異度90%、精度90.43%、リコール94.44%、F1スコア92.39%、G平均92.19%である。
論文 参考訳(メタデータ) (2022-11-05T10:27:37Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。