論文の概要: Multi-Modality Information Fusion for Radiomics-based Neural
Architecture Search
- arxiv url: http://arxiv.org/abs/2007.06002v1
- Date: Sun, 12 Jul 2020 14:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:49:12.011574
- Title: Multi-Modality Information Fusion for Radiomics-based Neural
Architecture Search
- Title(参考訳): 放射能に基づくニューラルアーキテクチャ探索のためのマルチモダリティ情報融合
- Authors: Yige Peng, Lei Bi, Michael Fulham, Dagan Feng, and Jinman Kim
- Abstract要約: 既存の放射能法では、手作りの放射能の特徴とその抽出と選択が必要である。
畳み込みニューラルネットワーク(CNN)に基づく最近の放射線学手法も、ネットワークアーキテクチャ設計において手動入力を必要とする。
放射能に最適なマルチモーダル画像特徴を自動的に導出するマルチモーダルニューラルネットワーク探索法(MM-NAS)を提案する。
- 参考スコア(独自算出の注目度): 10.994223928445589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 'Radiomics' is a method that extracts mineable quantitative features from
radiographic images. These features can then be used to determine prognosis,
for example, predicting the development of distant metastases (DM). Existing
radiomics methods, however, require complex manual effort including the design
of hand-crafted radiomic features and their extraction and selection. Recent
radiomics methods, based on convolutional neural networks (CNNs), also require
manual input in network architecture design and hyper-parameter tuning.
Radiomic complexity is further compounded when there are multiple imaging
modalities, for example, combined positron emission tomography - computed
tomography (PET-CT) where there is functional information from PET and
complementary anatomical localization information from computed tomography
(CT). Existing multi-modality radiomics methods manually fuse the data that are
extracted separately. Reliance on manual fusion often results in sub-optimal
fusion because they are dependent on an 'expert's' understanding of medical
images. In this study, we propose a multi-modality neural architecture search
method (MM-NAS) to automatically derive optimal multi-modality image features
for radiomics and thus negate the dependence on a manual process. We evaluated
our MM-NAS on the ability to predict DM using a public PET-CT dataset of
patients with soft-tissue sarcomas (STSs). Our results show that our MM-NAS had
a higher prediction accuracy when compared to state-of-the-art radiomics
methods.
- Abstract(参考訳): 放射能」とは、放射線画像から採掘可能な量的特徴を抽出する手法である。
これらの特徴は、例えば、遠隔転移(DM)の発生を予測するために、予後を決定するために使われる。
しかし、既存の放射能法は、手作りの放射能の特徴の設計と抽出と選択を含む複雑な手作業を必要とする。
畳み込みニューラルネットワーク(cnns)に基づく最近の放射能法は、ネットワークアーキテクチャ設計とハイパーパラメータチューニングの手動入力も必要である。
例えば、PET-CT(Computed Tomography)はPETからの機能情報とCT(Computed Tomography)からの補完的な解剖学的局在情報である。
既存のマルチモダリティラジオミクス手法は、別々に抽出されたデータを手動で融合する。
手動核融合の信頼性は、医療画像の「専門家」理解に依存するため、しばしば準最適核融合をもたらす。
本研究では,放射能に最適なマルチモーダル画像特徴を自動的に導出し,手動による処理に依存しないマルチモーダルニューラルアーキテクチャ探索法を提案する。
軟部肉腫 (STSs) 患者の公共PET-CTデータセットを用いて, DMの予測能力についてMM-NASの評価を行った。
以上の結果から,mm-nasは最先端のラジオマティックス法と比較して高い予測精度を示した。
関連論文リスト
- MRI Parameter Mapping via Gaussian Mixture VAE: Breaking the Assumption of Independent Pixels [3.720246718519987]
我々はMRIにおける定量的パラメータマッピングの新しいパラダイムを導入し、実証する。
独立画素の仮定を破る自己教師型深部変分法を提案する。
そこで本手法は,dMRIやqMRIなどのパラメータマッピング手法の臨床応用を支援することができる。
論文 参考訳(メタデータ) (2024-11-16T11:11:36Z) - Leveraging Multimodal CycleGAN for the Generation of Anatomically Accurate Synthetic CT Scans from MRIs [1.779948689352186]
我々は、MRIから合成CTスキャンを生成するために、Deep Learningモデルの異なる構成の能力を解析する。
異なるMRIモダリティからCTスキャンを生成するために、コントラスト剤を使用しないいくつかのCycleGANモデルを教師なしで訓練した。
結果から, 入力のモーダル性に応じて, モデルが全く異なる性能を持つことを示す。
論文 参考訳(メタデータ) (2024-07-15T16:38:59Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Radiology-Llama2: Best-in-Class Large Language Model for Radiology [71.27700230067168]
本稿では,ラジオロジーに特化した大規模言語モデルであるRadiology-Llama2を紹介する。
MIMIC-CXRとOpenIデータセットのROUGEメトリクスを用いた定量的評価は、Radiology-Llama2が最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-08-29T17:44:28Z) - Optimizing Sampling Patterns for Compressed Sensing MRI with Diffusion
Generative Models [75.52575380824051]
圧縮センシングマルチコイルMRIにおけるサブサンプリングパターンを最適化する学習手法を提案する。
拡散モデルとMRI計測プロセスにより得られた後部平均推定値に基づいて1段階の再構成を行う。
本手法では,効果的なサンプリングパターンの学習には5つのトレーニング画像が必要である。
論文 参考訳(メタデータ) (2023-06-05T22:09:06Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Predicting Distant Metastases in Soft-Tissue Sarcomas from PET-CT scans
using Constrained Hierarchical Multi-Modality Feature Learning [14.60163613315816]
Distant metastases (DM) は軟部肉腫 (STS) 患者における主要な死因である
STS患者が転移を発症する画像研究から判断することは困難である。
PET-CTデータから患者のDMを予測する3D CNNについて概説する。
論文 参考訳(メタデータ) (2021-04-23T05:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。