論文の概要: Glioblastoma Overall Survival Prediction With Vision Transformers
- arxiv url: http://arxiv.org/abs/2508.02439v2
- Date: Tue, 05 Aug 2025 07:03:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 13:15:14.150771
- Title: Glioblastoma Overall Survival Prediction With Vision Transformers
- Title(参考訳): 視力変換器を用いたGlioblastomaの生存予測
- Authors: Yin Lin, Riccardo Barbieri, Domenico Aquino, Giuseppe Lauria, Marina Grisoli, Elena De Momi, Alberto Redaelli, Simona Ferrante,
- Abstract要約: グリオ芽腫は最も攻撃的で一般的な脳腫瘍の1つで、生存期間は10~15ヶ月である。
本研究では,MRI画像を用いた総合生存(OS)予測のための新しい人工知能(AI)手法を提案する。
我々は視覚変換器(ViT)を用いてMRI画像から直接隠れた特徴を抽出し,腫瘍のセグメンテーションの必要性を排除した。
提案したモデルは、BRATSデータセットで評価され、テストセット上で62.5%の精度を達成した。
- 参考スコア(独自算出の注目度): 6.318465743962574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Glioblastoma is one of the most aggressive and common brain tumors, with a median survival of 10-15 months. Predicting Overall Survival (OS) is critical for personalizing treatment strategies and aligning clinical decisions with patient outcomes. In this study, we propose a novel Artificial Intelligence (AI) approach for OS prediction using Magnetic Resonance Imaging (MRI) images, exploiting Vision Transformers (ViTs) to extract hidden features directly from MRI images, eliminating the need of tumor segmentation. Unlike traditional approaches, our method simplifies the workflow and reduces computational resource requirements. The proposed model was evaluated on the BRATS dataset, reaching an accuracy of 62.5% on the test set, comparable to the top-performing methods. Additionally, it demonstrated balanced performance across precision, recall, and F1 score, overcoming the best model in these metrics. The dataset size limits the generalization of the ViT which typically requires larger datasets compared to convolutional neural networks. This limitation in generalization is observed across all the cited studies. This work highlights the applicability of ViTs for downsampled medical imaging tasks and establishes a foundation for OS prediction models that are computationally efficient and do not rely on segmentation.
- Abstract(参考訳): グリオ芽腫は最も攻撃的で一般的な脳腫瘍の1つで、生存期間は10~15ヶ月である。
総合生存予測(OS)は治療戦略のパーソナライズと臨床決定と患者の結果の整合化に重要である。
本研究では、MRI画像を用いたOS予測のための新しい人工知能(AI)アプローチを提案し、視覚変換器(ViT)を用いて、MRI画像から直接隠れた特徴を抽出し、腫瘍のセグメンテーションの必要性を排除した。
従来の手法とは異なり、我々の手法はワークフローを単純化し、計算資源の要求を減らす。
提案したモデルは、BRATSデータセットで評価され、テストセット上で62.5%の精度を達成した。
さらに、精度、リコール、F1スコアのバランスの取れたパフォーマンスを示し、これらのメトリクスで最高のモデルを克服した。
データセットサイズは、畳み込みニューラルネットワークに比べて大きなデータセットを必要とするViTの一般化を制限する。
この一般化の制限は、引用されたすべての研究で観察される。
この研究は、医療画像タスクの縮小に対するViTsの適用性を強調し、計算効率が高くセグメンテーションに依存しないOS予測モデルの基盤を確立する。
関連論文リスト
- Brain Stroke Detection and Classification Using CT Imaging with Transformer Models and Explainable AI [0.0]
本研究では,CTスキャン画像を用いたマルチクラス脳卒中分類のための人工知能フレームワークを提案する。
提案手法は,画像ベースストローク分類の深層学習モデルとして,最先端のビジョン変換器であるMaxViTを採用した。
モデル一般化とアドレスクラス不均衡を改善するため,データ拡張手法を適用した。
論文 参考訳(メタデータ) (2025-07-13T13:50:50Z) - Automated MRI Tumor Segmentation using hybrid U-Net with Transformer and Efficient Attention [0.7456526005219317]
癌は異常な増殖であり、局所的に浸潤し、遠くの臓器に転移する可能性がある。
最近のAIベースのセグメンテーションモデルは一般的に、大規模な公開データセットでトレーニングされている。
本研究は,AI腫瘍セグメンテーションモデルを病院ソフトウェアに直接組み込んで,効率的な腫瘍治療計画と実施を行う。
論文 参考訳(メタデータ) (2025-06-18T15:36:37Z) - Towards a general-purpose foundation model for fMRI analysis [58.06455456423138]
我々は,4次元fMRIボリュームから学習し,多様なアプリケーション間で効率的な知識伝達を可能にするフレームワークであるNeuroSTORMを紹介する。
NeuroSTORMは、複数のセンターにまたがる5万人以上の被験者から5歳から100歳までの28.65万fMRIフレーム(→9000時間)で事前トレーニングされている。
年齢/性別予測、表現型予測、疾患診断、fMRI-to-image検索、タスクベースのfMRIの5つのタスクにおいて、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2025-06-11T23:51:01Z) - MIL vs. Aggregation: Evaluating Patient-Level Survival Prediction Strategies Using Graph-Based Learning [52.231128973251124]
我々は,WSIおよび患者レベルでの生存を予測するための様々な戦略を比較した。
前者はそれぞれのWSIを独立したサンプルとして扱い、他の作業で採用された戦略を模倣します。
後者は、複数のWSIの予測を集約するか、最も関連性の高いスライドを自動的に識別するメソッドを含む。
論文 参考訳(メタデータ) (2025-03-29T11:14:02Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - Residual Vision Transformer (ResViT) Based Self-Supervised Learning Model for Brain Tumor Classification [0.08192907805418585]
自己教師付き学習モデルは、限られたデータセット問題に対するデータ効率と注目すべき解決策を提供する。
本稿では2段階の脳腫瘍分類のための生成型SSLモデルを提案する。
提案されたモデルが最も精度が高く、T1シークエンスでBraTsデータセットで90.56%、Figshareで98.53%、Kaggle脳腫瘍データセットで98.47%を達成している。
論文 参考訳(メタデータ) (2024-11-19T21:42:57Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - Multi-task fusion for improving mammography screening data
classification [3.7683182861690843]
まず、個別のタスク固有のモデルのセットをトレーニングするパイプラインアプローチを提案する。
次に、標準モデルの集合戦略とは対照的に、その融合について検討する。
我々の融合アプローチは、標準モデルのアンサンブルに比べてAUCのスコアを最大0.04向上させる。
論文 参考訳(メタデータ) (2021-12-01T13:56:27Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。