論文の概要: CoRe-BT: A Multimodal Radiology-Pathology-Text Benchmark for Robust Brain Tumor Typing
- arxiv url: http://arxiv.org/abs/2603.03618v1
- Date: Wed, 04 Mar 2026 01:06:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.140522
- Title: CoRe-BT: A Multimodal Radiology-Pathology-Text Benchmark for Robust Brain Tumor Typing
- Title(参考訳): CoRe-BT:ロバスト脳腫瘍タイピングのためのマルチモーダルラジオロジー-Pathology-Textベンチマーク
- Authors: Juampablo E. Heras Rivera, Daniel K. Low, Xavier Xiong, Jacob J. Ruzevick, Daniel D. Child, Wen-wai Yim, Mehmet Kurt, Asma Ben Abacha,
- Abstract要約: われわれは,脳腫瘍タイピングのためのクロスモーダルラジオロジー・病理テキストベンチマークであるCoRe-BTを紹介した。
マルチシーケンス脳MRI(T1,T1c,T2,FLAIR)の310例からなる。
全症例に腫瘍タイプとグレードが付与され、MRIのボリュームには専門家が注釈を付けた腫瘍マスクが含まれている。
- 参考スコア(独自算出の注目度): 3.6380774806458214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate brain tumor typing requires integrating heterogeneous clinical evidence, including magnetic resonance imaging (MRI), histopathology, and pathology reports, which are often incomplete at the time of diagnosis. We introduce CoRe-BT, a cross-modal radiology-pathology-text benchmark for brain tumor typing, designed to study robust multimodal learning under missing modality conditions. The dataset comprises 310 patients with multi-sequence brain MRI (T1, T1c, T2, FLAIR), including 95 cases with paired H&E-stained whole-slide pathology images and pathology reports. All cases are annotated with tumor type and grade, and MRI volumes include expert-annotated tumor masks, enabling both region-aware modeling and auxiliary learning tasks. Tumors are categorized into six clinically relevant classes capturing the heterogeneity of common and rare glioma subtypes. We evaluate tumor typing under variable modality availability by comparing MRI-only models with multimodal approaches that incorporate pathology information when present. Baseline experiments demonstrate the feasibility of multimodal fusion and highlight complementary modality contributions across clinically relevant typing tasks. CoRe-BT provides a grounded testbed for advancing multimodal glioma typing and representation learning in realistic scenarios with incomplete clinical data.
- Abstract(参考訳): 脳腫瘍の正確なタイピングには、MRI(MRI)、病理組織学、病理診断時にしばしば不完全である診断報告を含む異種の臨床証拠を統合する必要がある。
我々は, マルチモーダル学習が欠如している条件下での堅牢なマルチモーダル学習の研究を目的とした, 脳腫瘍タイピングのためのクロスモーダルラジオロジー・病理テキストベンチマークであるCoRe-BTを紹介した。
マルチシーケンス脳MRI (T1, T1c, T2, FLAIR) の310例を対象とし, H&E-Stained whole-slide 画像と病理所見で95例を検索した。
全症例は腫瘍タイプとグレードでアノテートされ、MRIのボリュームには専門家がアノテートした腫瘍マスクが含まれており、領域認識モデリングと補助学習の両方が可能である。
腫瘍は、共通および稀なグリオーマサブタイプの不均一性を測定する6つの臨床的関連クラスに分類される。
我々はMRIのみのモデルと病理情報を組み込んだマルチモーダル・アプローチを比較して, 可変モードで腫瘍のタイピングを評価する。
ベースライン実験は多モード融合の実現可能性を示し、臨床関連型付けタスクにおける相補的モダリティの寄与を強調している。
CoRe-BTは、不完全な臨床データを持つ現実的なシナリオにおいて、マルチモーダルグリオーマタイピングと表現学習を進めるための接地型テストベッドを提供する。
関連論文リスト
- R-GenIMA: Integrating Neuroimaging and Genetics with Interpretable Multimodal AI for Alzheimer's Disease Progression [63.97617759805451]
アルツハイマー病の早期発見には、マクロスケールの神経解剖学的変化とマイクロスケールの遺伝的感受性を統合できるモデルが必要である。
本稿では,新しいROIワイド・ビジョン・トランスフォーマと遺伝的プロンプトを結合した多モード多言語モデルR-GenIMAを紹介する。
R-GenIMAは、通常の認知、主観記憶、軽度認知障害、ADの4方向分類において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-12-22T02:54:10Z) - Towards Label-Free Brain Tumor Segmentation: Unsupervised Learning with Multimodal MRI [7.144319861722029]
非教師付き異常検出(UAD)は、MRIにおける脳腫瘍のセグメンテーションのための教師付き学習の代替手段である。
正常脳MRIで腫瘍の検出と局所化を専門に訓練したMViT-AE(Multimodal Vision Transformer Autoencoder)を提案する。
本手法は臨床的に有意な腫瘍局在を達成し, 病変関連Dice類似係数は0.437, 0.316, 検査セット0.350, 異常検出率89.4%であった。
論文 参考訳(メタデータ) (2025-10-17T14:26:30Z) - Multimodal Sheaf-based Network for Glioblastoma Molecular Subtype Prediction [5.563171090433323]
我々はMRIと病理組織学データの構造認識と一貫した融合のための新しい枠組みを提案する。
我々のモデルはベースライン手法より優れ、不完全あるいは欠落したデータシナリオにおける堅牢性を示す。
論文 参考訳(メタデータ) (2025-08-13T11:11:33Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Glioma Multimodal MRI Analysis System for Tumor Layered Diagnosis via Multi-task Semi-supervised Learning [9.665261760136032]
グリオーマは中枢神経系の最も一般的な原発性腫瘍である。
本研究では,複数のイベントを同時に処理する深層学習ネットワークを用いたGlioma Multimodal MRI Analysis System (GMMAS)を提案する。
論文 参考訳(メタデータ) (2025-01-29T16:50:04Z) - Enhanced MRI Representation via Cross-series Masking [48.09478307927716]
自己教師型でMRI表現を効果的に学習するためのクロスシリーズ・マスキング(CSM)戦略
メソッドは、パブリックデータセットと社内データセットの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T10:32:09Z) - Magnetic Resonance Imaging Feature-Based Subtyping and Model Ensemble for Enhanced Brain Tumor Segmentation [6.14919256198409]
本稿では,最先端セグメンテーションモデルを統合する深層学習に基づくアンサンブル手法を提案する。
BraTSデータセットに存在する腫瘍の不均一性を考えると、この手法はセグメンテーションモデルの精度と一般化性を高める。
論文 参考訳(メタデータ) (2024-12-05T12:00:00Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - MAG-Net: Mutli-task attention guided network for brain tumor
segmentation and classification [0.9176056742068814]
本稿では,MRI画像を用いて脳腫瘍領域の分類と分類を行うマルチタスク注意誘導エンコーダネットワーク(MAG-Net)を提案する。
このモデルは既存の最先端モデルと比較して有望な結果を得た。
論文 参考訳(メタデータ) (2021-07-26T16:51:00Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。