論文の概要: A Unified Multimodal Framework for Dataset Construction and Model-Based Diagnosis of Ameloblastoma
- arxiv url: http://arxiv.org/abs/2602.05515v1
- Date: Thu, 05 Feb 2026 10:15:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.880646
- Title: A Unified Multimodal Framework for Dataset Construction and Model-Based Diagnosis of Ameloblastoma
- Title(参考訳): 骨髄芽腫のデータセット構築とモデルベース診断のための統一型マルチモーダルフレームワーク
- Authors: Ajo Babu George, Anna Mariam John, Athul Anoop, Balu Bhasuran,
- Abstract要約: 今回,エナメル上皮腫に特有なマルチモーダルデータセットを新たに作成した。
テキストレポートから臨床的に関連性のある特徴を抽出するために自然言語処理技術が用いられた。
骨髄芽腫変異の分類,再発リスクなどの行動パターンの評価,手術計画支援のための多モード深層学習モデルを開発した。
- 参考スコア(独自算出の注目度): 0.1499944454332829
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI)-enabled diagnostics in maxillofacial pathology require structured, high-quality multimodal datasets. However, existing resources provide limited ameloblastoma coverage and lack the format consistency needed for direct model training. We present a newly curated multimodal dataset specifically focused on ameloblastoma, integrating annotated radiological, histopathological, and intraoral clinical images with structured data derived from case reports. Natural language processing techniques were employed to extract clinically relevant features from textual reports, while image data underwent domain specific preprocessing and augmentation. Using this dataset, a multimodal deep learning model was developed to classify ameloblastoma variants, assess behavioral patterns such as recurrence risk, and support surgical planning. The model is designed to accept clinical inputs such as presenting complaint, age, and gender during deployment to enhance personalized inference. Quantitative evaluation demonstrated substantial improvements; variant classification accuracy increased from 46.2 percent to 65.9 percent, and abnormal tissue detection F1-score improved from 43.0 percent to 90.3 percent. Benchmarked against resources like MultiCaRe, this work advances patient-specific decision support by providing both a robust dataset and an adaptable multimodal AI framework.
- Abstract(参考訳): 顎顔面病理における人工知能(AI)対応診断には、構造化された高品質なマルチモーダルデータセットが必要である。
しかし、既存のリソースは、限られたエナメル上皮腫のカバレッジを提供し、直接モデルトレーニングに必要なフォーマットの整合性が欠如している。
症例報告から得られた構造的データと,注記,病理組織学的,口腔内臨床像を統合し,エナメル芽腫に特有な治療を行った。
自然言語処理技術を用いてテキストレポートから臨床的に関連性のある特徴を抽出し,画像データはドメイン固有の前処理と拡張を行った。
このデータセットを用いて,エナメル上皮腫の変異を分類し,再発リスクなどの行動パターンを評価し,手術計画を支援するマルチモーダル深層学習モデルを開発した。
このモデルは、デプロイ中に苦情、年齢、性別などの臨床入力を受け付け、パーソナライズされた推論を強化するように設計されている。
分類精度は46.2%から65.9%に向上し、異常組織検出F1スコアは43.0%から90.3%に改善した。
MultiCaReのようなリソースに対してベンチマークされたこの研究は、堅牢なデータセットと適応可能なマルチモーダルAIフレームワークを提供することで、患者固有の意思決定サポートを前進させる。
関連論文リスト
- impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - DiagR1: A Vision-Language Model Trained via Reinforcement Learning for Digestive Pathology Diagnosis [7.5173141954286775]
内視鏡的所見と診断結果の両方を含む大規模な消化管病理データセットを構築した。
この設計は、画像特有の特徴をよりよく捉え、生成時のセマンティック一貫性を維持するためにモデルを導く。
臨床関連度は18.7%, 構造的完全性は32.4%改善し, 診断誤差は41.2%減少した。
論文 参考訳(メタデータ) (2025-07-24T14:12:20Z) - MeD-3D: A Multimodal Deep Learning Framework for Precise Recurrence Prediction in Clear Cell Renal Cell Carcinoma (ccRCC) [0.0]
本研究では、CT、MRI、病理組織像全体(WSI)、臨床データ、ゲノムプロファイルを含む多モードデータを統合するディープラーニング(DL)フレームワークを提案する。
このフレームワークは、特定のモダリティが欠如している場合でも推論を可能にすることで、臨床環境で共通の課題である不完全なデータを扱うように設計されている。
論文 参考訳(メタデータ) (2025-07-10T15:11:09Z) - Any-to-Any Vision-Language Model for Multimodal X-ray Imaging and Radiological Report Generation [26.589728923739596]
マルチモーダル医療データ生成に特化して設計されたフレームワークを提案する。
多視点胸部X線の発生と臨床報告により、汎用視覚言語モデルと医療の専門的要件とのギャップを埋める。
我々のフレームワークは、下流疾患分類タスクの実際のデータと比較して、同等またはそれ以上の性能を実現している。
論文 参考訳(メタデータ) (2025-05-02T08:07:24Z) - PathInsight: Instruction Tuning of Multimodal Datasets and Models for Intelligence Assisted Diagnosis in Histopathology [7.87900104748629]
6つの異なるタスクをカバーする約45,000のケースのデータセットを慎重にコンパイルしました。
特にLLaVA, Qwen-VL, InternLMを微調整したマルチモーダル大規模モデルで, このデータセットを用いて命令ベースの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-13T17:05:06Z) - MGH Radiology Llama: A Llama 3 70B Model for Radiology [50.42811030970618]
本稿では,高度な放射線学に焦点を当てた大規模言語モデルMGH Radiology Llamaを提案する。
Llama 3 70Bモデルを使用して開発され、Radiology-GPTやRadiology-Llama2といった従来のドメイン固有モデルをベースにしている。
従来の指標とGPT-4に基づく評価の両方を取り入れた評価では,汎用LLMよりも高い性能を示す。
論文 参考訳(メタデータ) (2024-08-13T01:30:03Z) - HoneyBee: A Scalable Modular Framework for Creating Multimodal Oncology Datasets with Foundational Embedding Models [11.03503711055749]
HONeYBEEは、腫瘍学の応用のために、マルチモーダルなバイオメディカルデータを統合したオープンソースのフレームワークである。
臨床データ(構造化および非構造化)、全スライダー画像、放射線スキャン、分子プロファイルを処理し、統合された患者レベルの埋め込みを生成する。
これらの埋め込みは生存予測、がん型の分類、患者の類似性検索、コホートクラスタリングを可能にする。
論文 参考訳(メタデータ) (2024-05-13T04:35:14Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。