論文の概要: AMINN: Autoencoder-based Multiple Instance Neural Network for Outcome
Prediction of Multifocal Liver Metastases
- arxiv url: http://arxiv.org/abs/2012.06875v1
- Date: Sat, 12 Dec 2020 17:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 05:16:15.141736
- Title: AMINN: Autoencoder-based Multiple Instance Neural Network for Outcome
Prediction of Multifocal Liver Metastases
- Title(参考訳): AMINN:多焦点肝転移の予後予測のためのオートエンコーダを用いたマルチインスタンスニューラルネットワーク
- Authors: Jianan Chen, Helen M. C. Cheung, Laurent Milot, Anne L. Martel
- Abstract要約: 多発性は大腸癌肝転移で頻繁に起こる。
既存のバイオマーカーのほとんどは、すべての多焦点病変の像の特徴を考慮に入れていない。
本稿では、生存確率を予測するために、エンドツーエンドのオートエンコーダベースマルチインスタンスニューラルネットワーク(AMINN)を提案する。
- 参考スコア(独自算出の注目度): 1.7294318054149134
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Colorectal cancer is one of the most common and lethal cancers and colorectal
cancer liver metastases (CRLM) is the major cause of death in patients with
colorectal cancer. Multifocality occurs frequently in CRLM, but is relatively
unexplored in CRLM outcome prediction. Most existing clinical and imaging
biomarkers do not take the imaging features of all multifocal lesions into
account. In this paper, we present an end-to-end autoencoder-based multiple
instance neural network (AMINN) for the prediction of survival outcomes in
multifocal CRLM patients using radiomic features extracted from
contrast-enhanced MRIs. Specifically, we jointly train an autoencoder to
reconstruct input features and a multiple instance network to make predictions
by aggregating information from all tumour lesions of a patient. In addition,
we incorporate a two-step normalization technique to improve the training of
deep neural networks, built on the observation that the distributions of
radiomic features are almost always severely skewed. Experimental results
empirically validated our hypothesis that incorporating imaging features of all
lesions improves outcome prediction for multifocal cancer. The proposed ADMINN
framework achieved an area under the ROC curve (AUC) of 0.70, which is 19.5%
higher than baseline methods. We built a risk score based on the outputs of our
network and compared it to other clinical and imaging biomarkers. Our risk
score is the only one that achieved statistical significance in univariate and
multivariate cox proportional hazard modeling in our cohort of multifocal CRLM
patients. The effectiveness of incorporating all lesions and applying two-step
normalization is demonstrated by a series of ablation studies. Our code will be
released after the peer-review process.
- Abstract(参考訳): 大腸癌は最も一般的で致死的ながんの1つであり,大腸癌肝転移(CRLM)は大腸癌患者の主要な死因である。
多焦点性はCRLMで頻繁に起こるが、CRLMの結果予測では明らかにされていない。
既存の臨床および画像バイオマーカーのほとんどは、すべての多焦点病変のイメージング特徴を考慮に入れていない。
本稿では、造影MRIから抽出した放射能特徴を用いた多焦点CRLM患者の生存率を予測するために、エンドツーエンドの自己エンコーダベースマルチインスタンスニューラルネットワーク(AMINN)を提案する。
具体的には,入力特徴を再構成するオートエンコーダと,患者のすべての腫瘍病変から情報を集約して予測を行う複数インスタンスネットワークを共同で訓練する。
さらに, 2段階の正規化手法を組み込んで, 深層ニューラルネットワークの訓練を改良し, 放射能特徴の分布がほぼ常に著しく歪んでいることを観測した。
実験の結果,全病変の画像特徴を取り入れた多焦点癌の予後予測が改善するという仮説を実証的に検証した。
提案されたADMINNフレームワークは、基準法よりも19.5%高いLOC曲線(AUC)0.70の領域を達成した。
ネットワークの出力に基づいてリスクスコアを作成し,他の臨床・画像バイオマーカーと比較した。
多焦点CRLM患者のコホートにおける一変量および多変量コックス比例ハザードモデリングの統計的意義は,我々のリスクスコアのみである。
全病変を組み込んで2段階の正常化を施す効果は,一連のアブレーション研究によって実証された。
私たちのコードはピアレビュープロセス後にリリースされます。
関連論文リスト
- M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - Improved Prognostic Prediction of Pancreatic Cancer Using Multi-Phase CT
by Integrating Neural Distance and Texture-Aware Transformer [37.55853672333369]
本稿では, 異なる患者のCT像における腫瘍と血管の正確な関係を記述した, 学習可能なニューラル距離を提案する。
発達したリスクマーカーは, 術前因子の生存率の予測因子として最強であった。
論文 参考訳(メタデータ) (2023-08-01T12:46:02Z) - Pathology-and-genomics Multimodal Transformer for Survival Outcome
Prediction [43.1748594898772]
大腸癌生存予測に病理学とゲノム学的知見を統合したマルチモーダルトランスフォーマー(PathOmics)を提案する。
ギガピクセル全スライド画像における組織ミクロ環境間の内在的相互作用を捉えるための教師なし事前訓練を強調した。
我々は,TCGA大腸癌と直腸癌コホートの両方に対するアプローチを評価し,提案手法は競争力があり,最先端の研究より優れていることを示す。
論文 参考訳(メタデータ) (2023-07-22T00:59:26Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Metastatic Cancer Outcome Prediction with Injective Multiple Instance
Pooling [1.0965065178451103]
我々は2つの公開データセットを処理し、転移性癌の予後予測を研究するために合計341人のベンチマークコホートを設定した。
結果予測に適した2つのインジェクティブ複数インスタンスプーリング関数を提案する。
本研究は, 肺がん非小細胞癌における複数症例の学習が, 頭頸部CT結果予測ベンチマークの課題において, 最先端のパフォーマンスを達成できることを示唆するものである。
論文 参考訳(メタデータ) (2022-03-09T16:58:03Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。