論文の概要: MedFoundationHub: A Lightweight and Secure Toolkit for Deploying Medical Vision Language Foundation Models
- arxiv url: http://arxiv.org/abs/2508.20345v1
- Date: Thu, 28 Aug 2025 01:39:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.889825
- Title: MedFoundationHub: A Lightweight and Secure Toolkit for Deploying Medical Vision Language Foundation Models
- Title(参考訳): MedFoundationHub: 医療ビジョン言語基盤モデルをデプロイするための軽量でセキュアなツールキット
- Authors: Xiao Li, Yanfan Zhu, Ruining Deng, Wei-Qi Wei, Yu Wang, Shilin Zhao, Yaohong Wang, Haichun Yang, Yuankai Huo,
- Abstract要約: 医用視覚言語モデルをデプロイするためのGUIツールキットであるMedFoundationHubを提案する。
医師はプログラミングの専門知識を使わずに、さまざまなモデルを手動で選択および使用することができる。
また、Dockerが管理するオペレーティングシステムのデプロイメントを通じて、プライバシ保護の推論を保証する。
- 参考スコア(独自算出の注目度): 9.098674571831088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in medical vision-language models (VLMs) open up remarkable opportunities for clinical applications such as automated report generation, copilots for physicians, and uncertainty quantification. However, despite their promise, medical VLMs introduce serious security concerns, most notably risks of Protected Health Information (PHI) exposure, data leakage, and vulnerability to cyberthreats - which are especially critical in hospital environments. Even when adopted for research or non-clinical purposes, healthcare organizations must exercise caution and implement safeguards. To address these challenges, we present MedFoundationHub, a graphical user interface (GUI) toolkit that: (1) enables physicians to manually select and use different models without programming expertise, (2) supports engineers in efficiently deploying medical VLMs in a plug-and-play fashion, with seamless integration of Hugging Face open-source models, and (3) ensures privacy-preserving inference through Docker-orchestrated, operating system agnostic deployment. MedFoundationHub requires only an offline local workstation equipped with a single NVIDIA A6000 GPU, making it both secure and accessible within the typical resources of academic research labs. To evaluate current capabilities, we engaged board-certified pathologists to deploy and assess five state-of-the-art VLMs (Google-MedGemma3-4B, Qwen2-VL-7B-Instruct, Qwen2.5-VL-7B-Instruct, and LLaVA-1.5-7B/13B). Expert evaluation covered colon cases and renal cases, yielding 1015 clinician-model scoring events. These assessments revealed recurring limitations, including off-target answers, vague reasoning, and inconsistent pathology terminology.
- Abstract(参考訳): 近年の医療ビジョン言語モデル (VLM) の進歩は, 自動レポート生成, 医師用副操縦士, 不確実性定量化などの臨床応用に顕著な機会を与えている。
しかしながら、医療用VLMは、その約束に反して深刻なセキュリティ上の懸念をもたらしており、特に病院環境において特に重要な、保護された健康情報(PHI)の暴露、データ漏洩、サイバー脅威に対する脆弱性が懸念されている。
研究目的や非臨床目的に採用されている場合でも、医療機関は注意を払って安全対策を実施する必要がある。
これらの課題に対処するために、私たちは、MedFoundationHubというグラフィカルなユーザインターフェース(GUI)ツールキットを紹介した。 1) プログラムの専門知識なしに、医師がさまざまなモデルを手動で選択および使用することを可能にし、(2) Hugging Faceオープンソースモデルのシームレスな統合により、医療用VLMをプラグイン・アンド・プレイ方式で効率的にデプロイするエンジニアを支援し、(3) Docker準拠のOS非依存デプロイメントによるプライバシ保護推論を保証する。
MedFoundationHubは1つのNVIDIA A6000 GPUを備えたオフラインのローカルワークステーションしか必要とせず、学術研究所の典型的なリソースの中で安全かつアクセス可能である。
現在の能力を評価するため,我々は,ボード認定病理医に5つの最先端VLM(Google-MedGemma3-4B,Qwen2-VL-7B-Instruct,Qwen2.5-VL-7B-Instruct,LLaVA-1.5-7B/13B)の展開と評価を依頼した。
専門的評価では大腸症例と腎症例を対象とし,1015例のクリニカルモデルスコアが得られた。
これらの評価では, 対象外回答, 曖昧な推論, 矛盾する病理学用語など, 反復的な限界が認められた。
関連論文リスト
- LLMEval-Med: A Real-world Clinical Benchmark for Medical LLMs with Physician Validation [38.02853540388593]
医学における大規模言語モデル (LLMs) の評価は, 医療応用には精度が高く, 誤差の少ないため重要である。
LLMEval-Medは、5つの中核医療領域をカバーする新しいベンチマークであり、現実の電子健康記録から得られた2,996の質問と専門家が設計した臨床シナリオを含む。
論文 参考訳(メタデータ) (2025-06-04T15:43:14Z) - VILA-M3: Enhancing Vision-Language Models with Medical Expert Knowledge [36.67150853785481]
一般視覚言語モデル(VLM)はコンピュータビジョンにおいて大きな進歩を遂げてきたが、医療などの専門分野では不足している。
従来のコンピュータビジョンタスクでは、創造的あるいは近似的な回答は受け入れられるかもしれないが、医療では精度が最重要である。
本稿では,専門モデルを用いた領域知識を活用した医療用VLMのための新しいフレームワークVILA-M3を提案する。
論文 参考訳(メタデータ) (2024-11-19T22:59:14Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - ChatCAD+: Towards a Universal and Reliable Interactive CAD using LLMs [48.11532667875847]
ChatCAD+は高品質な医療レポートを生成し、信頼できる医療アドバイスを提供するツールである。
信頼性レポート生成モジュールは、医療画像を解釈し、高品質な医療レポートを生成することができる。
Reliable Interactionモジュールは、信頼できる医療アドバイスを提供するために、信頼できる医療ウェブサイトからの最新の情報を活用する。
論文 参考訳(メタデータ) (2023-05-25T12:03:31Z) - MedAlpaca -- An Open-Source Collection of Medical Conversational AI Models and Training Data [37.60056509129154]
大規模言語モデル(LLM)は、医療、診断、患者医療、教育を改善するためのかなりの約束を持っている。
しかし、患者のプライバシを保護するために、オンプレミスでデプロイできるオープンソースモデルが緊急に必要である。
本稿では、160,000以上のエントリからなる革新的なデータセットについて紹介する。
論文 参考訳(メタデータ) (2023-04-14T11:28:08Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。