論文の概要: Deep Learning models for benign and malign Ocular Tumor Growth
Estimation
- arxiv url: http://arxiv.org/abs/2107.04220v1
- Date: Fri, 9 Jul 2021 05:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:35:39.464051
- Title: Deep Learning models for benign and malign Ocular Tumor Growth
Estimation
- Title(参考訳): 良性および悪性眼腫瘍進展推定のための深層学習モデル
- Authors: Mayank Goswami
- Abstract要約: 臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
- 参考スコア(独自算出の注目度): 3.1558405181807574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Relatively abundant availability of medical imaging data has provided
significant support in the development and testing of Neural Network based
image processing methods. Clinicians often face issues in selecting suitable
image processing algorithm for medical imaging data. A strategy for the
selection of a proper model is presented here. The training data set comprises
optical coherence tomography (OCT) and angiography (OCT-A) images of 50 mice
eyes with more than 100 days follow-up. The data contains images from treated
and untreated mouse eyes. Four deep learning variants are tested for automatic
(a) differentiation of tumor region with healthy retinal layer and (b)
segmentation of 3D ocular tumor volumes. Exhaustive sensitivity analysis of
deep learning models is performed with respect to the number of training and
testing images using 8 eight performance indices to study accuracy,
reliability/reproducibility, and speed. U-net with UVgg16 is best for malign
tumor data set with treatment (having considerable variation) and U-net with
Inception backbone for benign tumor data (with minor variation). Loss value and
root mean square error (R.M.S.E.) are found most and least sensitive
performance indices, respectively. The performance (via indices) is found to be
exponentially improving regarding a number of training images. The segmented
OCT-Angiography data shows that neovascularization drives the tumor volume.
Image analysis shows that photodynamic imaging-assisted tumor treatment
protocol is transforming an aggressively growing tumor into a cyst. An
empirical expression is obtained to help medical professionals to choose a
particular model given the number of images and types of characteristics. We
recommend that the presented exercise should be taken as standard practice
before employing a particular deep learning model for biomedical image
analysis.
- Abstract(参考訳): 医療画像データの比較的豊富な可用性は、ニューラルネットワークベースの画像処理手法の開発とテストにおいて重要なサポートを提供している。
臨床医は、医療画像データに適した画像処理アルゴリズムを選択する際にしばしば問題に直面する。
ここでは、適切なモデルを選択するための戦略を示す。
トレーニングデータセットは、100日以上経過した50マウス目の光コヒーレンストモグラフィ(oct)および血管造影(oct−a)画像を含む。
このデータには、治療を受けていないマウスの目の画像が含まれている。
正常網膜層を有する腫瘍領域の自動(a)分化と3次元眼腫瘍体積のセグメンテーションの4種類のディープラーニング変異体を試験した。
深層学習モデルの被曝感度解析は,8つの性能指標を用いて,精度,信頼性,再現性,速度を計測する訓練・試験画像の数に対して行われる。
U-net with UVgg16 is best for malign tumor data set with treatment (have certain variation) and U-net with Inception backbone for beign tumor data (with minor variation)。
損失値と根平均二乗誤差(R.M.S.E.)
それぞれ最も敏感なパフォーマンス指標と 最も敏感なパフォーマンス指標が見られます
指標による)性能は、多くのトレーニング画像に関して指数関数的に改善されている。
セグメンテッドオクタアンギオグラフィーデータから,血管新生が腫瘍体積を増加させることが示唆された。
画像解析により,photodynamic imaging-assisted tumor treatment protocolが積極的に増殖する腫瘍を嚢胞に変化させていることが明らかとなった。
画像の数や特徴の種類に応じて、医療専門家が特定のモデルを選択するのに役立つ経験的表現を得る。
生体画像解析に特定の深層学習モデルを採用する前に,提案課題を標準的実践として採用することを推奨する。
関連論文リスト
- Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Integrating Preprocessing Methods and Convolutional Neural Networks for
Effective Tumor Detection in Medical Imaging [0.0]
本研究では,畳み込みニューラルネットワーク(CNN)を用いた医用画像における腫瘍検出のための機械学習手法を提案する。
本研究は,腫瘍検出に関連する画像の特徴を高めるための前処理技術に焦点を当て,CNNモデルの開発と訓練を行った。
医用画像中の腫瘍を正確に検出する手法の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2024-02-25T23:49:05Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Brain Tumor Segmentation from MRI Images using Deep Learning Techniques [3.1498833540989413]
パブリックMRIデータセットは、脳腫瘍、髄膜腫、グリオーマ、下垂体腫瘍の3つの変種を持つ233人の患者の3064 TI強調画像を含む。
データセットファイルは、よく知られた画像セグメンテーション深層学習モデルの実装とトレーニングを利用する方法論に順応する前に、変換され、前処理される。
実験の結果,Adamを用いた再帰的残差U-Netは平均差0.8665に到達し,他の最先端ディープラーニングモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-04-29T13:33:21Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Robust Pancreatic Ductal Adenocarcinoma Segmentation with
Multi-Institutional Multi-Phase Partially-Annotated CT Scans [25.889684822655255]
膵管腺癌(PDAC)セグメンテーションは最も困難な腫瘍セグメンテーションの1つである。
新たな自己学習フレームワークに基づいて,より多量の患者を用いてPDACセグメンテーションモデルを訓練することを提案する。
実験の結果,提案手法は,注釈付き画像に基づいてトレーニングしたnnUNetの強いベースラインに対して,Diceスコアの6.3%を絶対的に改善することを示した。
論文 参考訳(メタデータ) (2020-08-24T18:50:30Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。