論文の概要: 'A net for everyone': fully personalized and unsupervised neural
networks trained with longitudinal data from a single patient
- arxiv url: http://arxiv.org/abs/2210.14228v1
- Date: Tue, 25 Oct 2022 11:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:52:03.229959
- Title: 'A net for everyone': fully personalized and unsupervised neural
networks trained with longitudinal data from a single patient
- Title(参考訳): 「全員のためのネット」:一人の患者の縦データで訓練された完全パーソナライズされた教師なしニューラルネットワーク
- Authors: Christian Strack, Kelsey L. Pomykala, Heinz-Peter Schlemmer, Jan
Egger, Jens Kleesiek
- Abstract要約: 縦断データセットの腫瘍進展を検出するために、パーソナライズされたニューラルネットワークを訓練する。
それぞれの患者に対して、異なるタイムポイントからの2つの画像を使用して、独自のニューラルネットワークをトレーニングしました。
1人の患者のデータを使って、深層ニューラルネットワークをトレーニングし、腫瘍の変化をモニターできることが示されています。
- 参考スコア(独自算出の注目度): 0.5576716560981031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise in importance of personalized medicine, we trained personalized
neural networks to detect tumor progression in longitudinal datasets. The model
was evaluated on two datasets with a total of 64 scans from 32 patients
diagnosed with glioblastoma multiforme (GBM). Contrast-enhanced T1w sequences
of brain magnetic resonance imaging (MRI) images were used in this study. For
each patient, we trained their own neural network using just two images from
different timepoints. Our approach uses a Wasserstein-GAN (generative
adversarial network), an unsupervised network architecture, to map the
differences between the two images. Using this map, the change in tumor volume
can be evaluated. Due to the combination of data augmentation and the network
architecture, co-registration of the two images is not needed. Furthermore, we
do not rely on any additional training data, (manual) annotations or
pre-training neural networks. The model received an AUC-score of 0.87 for tumor
change. We also introduced a modified RANO criteria, for which an accuracy of
66% can be achieved. We show that using data from just one patient can be used
to train deep neural networks to monitor tumor change.
- Abstract(参考訳): パーソナライズドメディカルの重要性の高まりに伴い、縦断データセットの腫瘍進展を検出するために、パーソナライズドニューラルネットワークを訓練した。
このモデルはglioblastoma multiforme (gbm) と診断された32例の2つのデータセットで評価された。
脳磁気共鳴画像(MRI)画像のコントラスト強調T1w配列を用いた。
それぞれの患者に対して、異なる時点の2つの画像を使用して、独自のニューラルネットワークをトレーニングしました。
このアプローチでは,教師なしのネットワークアーキテクチャであるwasserstein-gan(generative adversarial network)を用いて,画像間の差異をマッピングする。
このマップを用いて腫瘍体積の変化を評価することができる。
データ拡張とネットワークアーキテクチャの組み合わせにより、2つのイメージの共登録は不要である。
さらに、追加のトレーニングデータ、(手動)アノテーション、あるいは事前トレーニングニューラルネットワークに依存していません。
このモデルには腫瘍修正のためのAUCスコア0.87が与えられた。
また,66%の精度を実現するためのラノ基準の修正も導入した。
1人の患者からのデータを使って深層ニューラルネットワークを訓練し、腫瘍の変化をモニターできることを示した。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Predicting recovery following stroke: deep learning, multimodal data and
feature selection using explainable AI [3.797471910783104]
主な課題は、ニューロイメージングデータの非常に高次元性と、学習に利用可能なデータセットの比較的小さなサイズである。
我々は、MRIから抽出された関心領域を組み合わせた画像に対して、畳み込みニューラルネットワーク(CNN)を訓練する新しいアプローチを導入する。
病院のスキャナーの画像を用いて、現在のモデルがどのように改善され、さらに高いレベルの精度が得られるかを提案する。
論文 参考訳(メタデータ) (2023-10-29T22:31:20Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Scale-Equivariant Unrolled Neural Networks for Data-Efficient
Accelerated MRI Reconstruction [33.82162420709648]
本稿では,大規模同変畳み込みニューラルネットワークを用いたニューラルネットワークの近位演算子をモデル化する。
我々のアプローチは、同じメモリ制約下での最先端のアンロールニューラルネットワークに対する強力な改善を示す。
論文 参考訳(メタデータ) (2022-04-21T23:29:52Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - BiTr-Unet: a CNN-Transformer Combined Network for MRI Brain Tumor
Segmentation [2.741266294612776]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化のための,BiTr-Unetと呼ばれるCNN-Transformer複合モデルを提案する。
The proposed BiTr-Unet is a good performance on the BraTS 2021 validation dataset with mean Dice score 0.9076, 0.8392 and 0.8231, and mean Hausdorff distance 4.5322, 13.4592 and 14.9963 for the entire tumor, tumor core, and enhance tumor。
論文 参考訳(メタデータ) (2021-09-25T04:18:34Z) - A Joint Graph and Image Convolution Network for Automatic Brain Tumor
Segmentation [1.3381749415517017]
本稿では,脳腫瘍(BraTS)2021の課題として,関節グラフ畳み込み・画像畳み込みニューラルネットワークを提案する。
我々は、まず、グラフニューラルネットワーク(GNN)によって分割された、異なる画像領域からなるグラフとして、各脳をモデル化する。
GNNによって同定される腫瘍体積は、最終セグメンテーションを生成する単純な(ボクセル)畳み込みニューラルネットワーク(CNN)によってさらに洗練される。
論文 参考訳(メタデータ) (2021-09-12T18:16:59Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Predictive modeling of brain tumor: A Deep learning approach [0.0]
本稿では3つの事前学習モデルを用いて脳MRIスキャンを2つのクラスに分類する畳み込みニューラルネットワーク(CNN)に基づく伝達学習手法を提案する。
実験の結果, Resnet-50モデルが最も精度が高く, 偽陰率は95%, ゼロであった。
論文 参考訳(メタデータ) (2019-11-06T09:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。