論文の概要: Computational Imaging Meets LLMs: Zero-Shot IDH Mutation Prediction in Brain Gliomas
- arxiv url: http://arxiv.org/abs/2511.03376v1
- Date: Wed, 05 Nov 2025 11:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.416672
- Title: Computational Imaging Meets LLMs: Zero-Shot IDH Mutation Prediction in Brain Gliomas
- Title(参考訳): 脳グリオーマにおけるゼロショットIDH変異予測
- Authors: Syed Muqeem Mahmood, Hassan Mohy-ud-Din,
- Abstract要約: 本稿では,脳グリオーマにおける突然変異状態の非侵襲的ゼロショット予測のための大規模言語モデルと計算画像解析を組み合わせたフレームワークを提案する。
このフレームワークを6つの公開データセット(N=1427)で評価し,高い精度とバランスの取れた分類性能を示した。
- 参考スコア(独自算出の注目度): 0.34983827101872134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a framework that combines Large Language Models with computational image analytics for non-invasive, zero-shot prediction of IDH mutation status in brain gliomas. For each subject, coregistered multi-parametric MRI scans and multi-class tumor segmentation maps were processed to extract interpretable semantic (visual) attributes and quantitative features, serialized in a standardized JSON file, and used to query GPT 4o and GPT 5 without fine-tuning. We evaluated this framework on six publicly available datasets (N = 1427) and results showcased high accuracy and balanced classification performance across heterogeneous cohorts, even in the absence of manual annotations. GPT 5 outperformed GPT 4o in context-driven phenotype interpretation. Volumetric features emerged as the most important predictors, supplemented by subtype-specific imaging markers and clinical information. Our results demonstrate the potential of integrating LLM-based reasoning with computational image analytics for precise, non-invasive tumor genotyping, advancing diagnostic strategies in neuro-oncology. The code is available at https://github.com/ATPLab-LUMS/CIM-LLM.
- Abstract(参考訳): 脳グリオーマにおけるIDH変異の非侵襲的ゼロショット予測のための大規模言語モデルと計算画像解析を組み合わせたフレームワークを提案する。
各被験者に対して,マルチパラメトリックMRIスキャンとマルチクラス腫瘍セグメンテーションマップを処理し,解釈可能な意味的(視覚的)属性と定量的特徴を抽出し,標準化されたJSONファイルにシリアライズし,微調整なしでGPT 4oおよびGPT 5を検索した。
このフレームワークを6つの公開データセット(N = 1427)で評価した結果,手動アノテーションがなくても,不均一コホート間で高い精度とバランスの取れた分類性能を示した。
GPT 5は文脈駆動型表現型解釈においてGPT 4oより優れていた。
量的特徴が最も重要な予測因子として出現し, サブタイプ特異的イメージングマーカーと臨床情報を補足した。
本研究は, 神経腫瘍学における診断戦略の高度化にともなう, 正確な非侵襲性腫瘍ジェノタイピングのための計算画像解析とLCMベースの推論の統合の可能性を示すものである。
コードはhttps://github.com/ATPLab-LUMS/CIM-LLMで入手できる。
関連論文リスト
- DCMIL: A Progressive Representation Learning of Whole Slide Images for Cancer Prognosis Analysis [20.81711023855778]
本稿では、DCMIL(Dual-curriculum contrastive multi-instance learning)と呼ばれる、難易度から難易度までのプログレッシブな表現学習を提案する。
12種類のがん(5,954人、12.54万個のタイル)の実験では、DCMILが標準的なWSIベースの予後モデルより優れていることが示されている。
DCMILは、微細な予後関連領域を特定し、堅牢なインスタンスの不確実性評価を提供し、正常組織と腫瘍組織の間の形態的差異を捉えている。
論文 参考訳(メタデータ) (2025-10-16T08:03:54Z) - Performance of GPT-5 in Brain Tumor MRI Reasoning [4.156123728258067]
大規模言語モデル(LLM)は、画像解釈と自然言語推論を統合する視覚的質問応答(VQA)アプローチを可能にした。
GPT-4o, GPT-5-nano, GPT-5-mini, GPT-5を脳腫瘍VQAで評価した。
その結果, GPT-5-miniのマクロ平均精度は44.19%, GPT-5は43.71%, GPT-4oは41.49%, GPT-5-nanoは35.85%であった。
論文 参考訳(メタデータ) (2025-08-14T17:35:31Z) - BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification [0.6840587119863303]
我々は,脳腫瘍のセグメンテーションと分類タスクのためのデータセットであるBRISCを紹介し,高分解能セグメンテーションマスクを特徴とする。
データセットは6000のコントラスト強化T1強調MRIスキャンで構成され、セグメンテーションラベルを欠いた複数の公開データセットから照合された。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
論文 参考訳(メタデータ) (2025-06-17T08:56:05Z) - MIL vs. Aggregation: Evaluating Patient-Level Survival Prediction Strategies Using Graph-Based Learning [52.231128973251124]
我々は,WSIおよび患者レベルでの生存を予測するための様々な戦略を比較した。
前者はそれぞれのWSIを独立したサンプルとして扱い、他の作業で採用された戦略を模倣します。
後者は、複数のWSIの予測を集約するか、最も関連性の高いスライドを自動的に識別するメソッドを含む。
論文 参考訳(メタデータ) (2025-03-29T11:14:02Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - An Early Investigation into the Utility of Multimodal Large Language Models in Medical Imaging [0.3029213689620348]
医用画像解析のためのGemini(textitgemini-1.0-pro-vision-latst)モデルとGPT-4Vモデルの可能性を探る。
Gemini AIとGPT-4Vはどちらも、まず実画像と合成画像の分類に使用され、次に入力画像の解釈と解析を行う。
本研究で紹介した早期研究は,網膜眼底鏡および肺X線像の分類と解釈を支援するMLLMの可能性についての知見を提供するものである。
論文 参考訳(メタデータ) (2024-06-02T08:29:23Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。