論文の概要: ONCOPILOT: A Promptable CT Foundation Model For Solid Tumor Evaluation
- arxiv url: http://arxiv.org/abs/2410.07908v4
- Date: Tue, 19 Nov 2024 19:03:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:10:56.214241
- Title: ONCOPILOT: A Promptable CT Foundation Model For Solid Tumor Evaluation
- Title(参考訳): OnCOPILOT: 固形腫瘍評価のためのプロンプタブルCT基盤モデル
- Authors: Léo Machado, Hélène Philippe, Élodie Ferreres, Julien Khlaut, Julie Dupuis, Korentin Le Floch, Denis Habip Gatenyo, Pascal Roux, Jules Grégory, Maxime Ronot, Corentin Dancette, Tom Boeken, Daniel Tordjman, Pierre Manceron, Paul Hérent,
- Abstract要約: ONCOPILOTは、全身を覆う約7,500個のCTスキャンに基づいて訓練された、インタラクティブな放射線基礎モデルである。
ポイントクリックやバウンディングボックスのような視覚的なプロンプトを使って3D腫瘍のセグメンテーションを行い、最先端のモデルより優れています。
ONCOPILOTは測定プロセスを加速し、リーダー間のばらつきを低減する。
- 参考スコア(独自算出の注目度): 3.8763197858217935
- License:
- Abstract: Carcinogenesis is a proteiform phenomenon, with tumors emerging in various locations and displaying complex, diverse shapes. At the crucial intersection of research and clinical practice, it demands precise and flexible assessment. However, current biomarkers, such as RECIST 1.1's long and short axis measurements, fall short of capturing this complexity, offering an approximate estimate of tumor burden and a simplistic representation of a more intricate process. Additionally, existing supervised AI models face challenges in addressing the variability in tumor presentations, limiting their clinical utility. These limitations arise from the scarcity of annotations and the models' focus on narrowly defined tasks. To address these challenges, we developed ONCOPILOT, an interactive radiological foundation model trained on approximately 7,500 CT scans covering the whole body, from both normal anatomy and a wide range of oncological cases. ONCOPILOT performs 3D tumor segmentation using visual prompts like point-click and bounding boxes, outperforming state-of-the-art models (e.g., nnUnet) and achieving radiologist-level accuracy in RECIST 1.1 measurements. The key advantage of this foundation model is its ability to surpass state-of-the-art performance while keeping the radiologist in the loop, a capability that previous models could not achieve. When radiologists interactively refine the segmentations, accuracy improves further. ONCOPILOT also accelerates measurement processes and reduces inter-reader variability, facilitating volumetric analysis and unlocking new biomarkers for deeper insights. This AI assistant is expected to enhance the precision of RECIST 1.1 measurements, unlock the potential of volumetric biomarkers, and improve patient stratification and clinical care, while seamlessly integrating into the radiological workflow.
- Abstract(参考訳): 発癌は先天的な現象であり、腫瘍は様々な場所に出現し、複雑で多様な形状を示す。
研究と臨床の重要な交差点では、正確で柔軟な評価が必要である。
しかし、RECIST 1.1の長軸と短軸の計測のような現在のバイオマーカーは、この複雑さをとらえるには不十分であり、腫瘍の重荷を推定し、より複雑なプロセスの簡潔な表現を提供する。
さらに、既存の教師付きAIモデルは、腫瘍のプレゼンテーションにおける可変性に対処し、臨床的有用性を制限するという課題に直面している。
これらの制限は、アノテーションの不足と、モデルが狭義に定義されたタスクに焦点を当てることから生じる。
OnCOPILOTは, 全身を約7,500個のCTスキャンで観察し, 正常な解剖学, 広範囲の腫瘍学的症例を対象とする, インタラクティブな放射線基礎モデルである。
ONCOPILOTは、ポイントクリックやバウンディングボックスのような視覚的プロンプトを使用して3D腫瘍セグメンテーションを行い、最先端のモデル(例えばnnUnet)より優れ、RECIST 1.1測定において放射線学レベルの精度を達成する。
この基礎モデルの鍵となる利点は、ラジオロジストをループに保ちながら最先端のパフォーマンスを上回る能力であり、以前のモデルでは達成できなかった。
放射線学者が対話的にセグメンテーションを洗練させると、精度はさらに向上する。
ONCOPILOTは測定プロセスを加速し、読み手間のばらつきを低減し、ボリューム分析を容易にし、より深い洞察を得るために新しいバイオマーカーをアンロックする。
このAIアシスタントは、RECIST 1.1測定の精度を高め、ボリュームバイオマーカーの可能性を解き放ち、患者層化と臨床ケアを改善しつつ、シームレスに放射線学的ワークフローに統合されることが期待されている。
関連論文リスト
- Anatomy-Guided Radiology Report Generation with Pathology-Aware Regional Prompts [3.1019279528120363]
生成AIを報告する放射線学は、臨床ワークロードを緩和し、医療を合理化するための大きな可能性を秘めている。
既存のシステムは、固定サイズ、パッチレベルの画像特徴、病理情報の組み入れが不十分なため、しばしば不足する。
本稿では,病的・病態的情報を多種多様な尺度で明確に統合するために,病理学的に認識された地域的プロンプトを活用する革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-16T12:36:20Z) - Potential of Multimodal Large Language Models for Data Mining of Medical Images and Free-text Reports [51.45762396192655]
特にGemini-Vision-Series (Gemini) と GPT-4-Series (GPT-4) は、コンピュータビジョンのための人工知能のパラダイムシフトを象徴している。
本研究は,14の医用画像データセットを対象に,Gemini,GPT-4,および4つの一般的な大規模モデルの性能評価を行った。
論文 参考訳(メタデータ) (2024-07-08T09:08:42Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Segmentation-based Assessment of Tumor-Vessel Involvement for Surgical
Resectability Prediction of Pancreatic Ductal Adenocarcinoma [1.880228463170355]
膵管腺癌 (PDAC) は, 治療の選択肢が限られる進行癌である。
本研究は,腫瘍血管の関与を自動的に評価するワークフローと深層学習に基づくセグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2023-10-01T10:39:38Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - CoNIC Challenge: Pushing the Frontiers of Nuclear Detection,
Segmentation, Classification and Counting [46.45578907156356]
我々は、核分裂と細胞組成を評価するために、その種の最大の利用可能なデータセットを用いて、コミュニティ全体の課題をセットアップする。
大腸組織1,658枚の全スライディング画像を用いて,トップパフォーマンスモデルに基づく広範囲な組織解析を行った。
腫瘍微小環境において,核および好酸球が重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:21:13Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Deep Learning for Reaction-Diffusion Glioma Growth Modelling: Towards a
Fully Personalised Model? [0.2609639566830968]
グリオーマの成長を捉えるために、反応拡散モデルが何十年も提案されてきた。
ディープ畳み込みニューラルネットワーク(DCNN)は、現場でよく見られる落とし穴に対処することができる。
このアプローチは,腫瘍予後および治療計画に対する反応拡散成長モデルの臨床応用の視点を開放する可能性がある。
論文 参考訳(メタデータ) (2021-11-26T10:16:57Z) - Harvesting, Detecting, and Characterizing Liver Lesions from Large-scale
Multi-phase CT Data via Deep Dynamic Texture Learning [24.633802585888812]
ダイナミックコントラストCT(Dynamic contrast Computed Tomography)のための完全自動多段階肝腫瘍評価フレームワークを提案する。
本システムでは, 腫瘍提案検出, 腫瘍採取, 原発部位の選択, 深部テクスチャに基づく腫瘍評価の4段階からなる。
論文 参考訳(メタデータ) (2020-06-28T19:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。