論文の概要: QuarkMed Medical Foundation Model Technical Report
- arxiv url: http://arxiv.org/abs/2508.11894v1
- Date: Sat, 16 Aug 2025 03:47:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.43788
- Title: QuarkMed Medical Foundation Model Technical Report
- Title(参考訳): QuarkMed Medical Foundation Model Technical Report
- Authors: Ao Li, Bin Yan, Bingfeng Cai, Chenxi Li, Cunzhong Zhao, Fugen Yao, Gaoqiang Liu, Guanjun Jiang, Jian Xu, Liang Dong, Liansheng Sun, Rongshen Zhang, Xiaolei Gui, Xin Liu, Xin Shang, Yao Wu, Yu Cao, Zhenxin Ma, Zhuang Jia,
- Abstract要約: 医療タスクは、専門知識、専門的正確性、カスタマイズ能力を必要とすることが多い。
QuarkMedは、キュレートされた医療データ処理、医療コンテンツ検索強化生成(RAG)、大規模で検証可能な強化学習パイプラインを活用することで、これらのニーズに対処する。
このモデルは中国医学ライセンス試験で70%の精度を達成し、様々な医学ベンチマークで強力な一般化を実証した。
- 参考スコア(独自算出の注目度): 14.083189432972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in large language models have significantly accelerated their adoption in healthcare applications, including AI-powered medical consultations, diagnostic report assistance, and medical search tools. However, medical tasks often demand highly specialized knowledge, professional accuracy, and customization capabilities, necessitating a robust and reliable foundation model. QuarkMed addresses these needs by leveraging curated medical data processing, medical-content Retrieval-Augmented Generation (RAG), and a large-scale, verifiable reinforcement learning pipeline to develop a high-performance medical foundation model. The model achieved 70% accuracy on the Chinese Medical Licensing Examination, demonstrating strong generalization across diverse medical benchmarks. QuarkMed offers a powerful yet versatile personal medical AI solution, already serving over millions of users at ai.quark.cn.
- Abstract(参考訳): 大規模言語モデルの最近の進歩は、AIによる医療相談、診断報告支援、医療検索ツールなど、医療分野への採用を著しく加速している。
しかし、医療タスクは、しばしば高度に専門的な知識、専門的精度、カスタマイズ能力を必要とし、堅牢で信頼性の高い基礎モデルを必要とする。
QuarkMedは、キュレートされた医療データ処理、医療コンテンツ検索・拡張生成(RAG)、大規模かつ検証可能な強化学習パイプラインを活用して、これらのニーズに対処し、高性能な医療基盤モデルを開発する。
このモデルは中国医学ライセンス試験で70%の精度を達成し、様々な医学ベンチマークで強力な一般化を実証した。
QuarkMedは強力だが汎用的なパーソナル医療AIソリューションを提供しており、ai.quark.cnですでに数百万のユーザーにサービスを提供している。
関連論文リスト
- MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning [57.873833577058]
医療知識の豊富なマルチモーダルデータセットを構築した。
次に医学専門のMLLMであるLingshuを紹介します。
Lingshuは、医療専門知識の組み込みとタスク解決能力の向上のために、マルチステージトレーニングを行っている。
論文 参考訳(メタデータ) (2025-06-08T08:47:30Z) - MedGo: A Chinese Medical Large Language Model [20.770607085079195]
本稿では,中国の医学大言語モデルであるMedGoについて述べる。
MedGoは、高品質な教師なし医療データ、教師付きデータ、嗜好アライメントデータを組み合わせて訓練された。
その結果、MedGoは様々な中国の医療情報処理タスクで有望なパフォーマンスを達成できた。
論文 参考訳(メタデータ) (2024-10-27T12:52:52Z) - Enhancing Healthcare through Large Language Models: A Study on Medical Question Answering [13.237829215746443]
Sentence-t5 + Mistral 7B モデルは、正確な医療回答の理解と生成に優れている。
以上の結果から,医学的文脈における高度なLCMの統合の可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-08T00:35:39Z) - COGNET-MD, an evaluation framework and dataset for Large Language Model benchmarks in the medical domain [1.6752458252726457]
大規模言語モデル(LLM)は最先端の人工知能(AI)技術である。
医療領域認知ネットワーク評価ツールキット(COGNET-MD)について概説する。
医用テキストの解釈におけるLCMの能力を評価するのが困難であるスコアフレームを提案する。
論文 参考訳(メタデータ) (2024-05-17T16:31:56Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge [8.584905227066034]
本研究の目的は,医療アドバイスの精度を向上した専門言語モデルを作ることであった。
そこで我々は,10万件の患者-医師対話の大規模データセットを用いて,大規模言語モデルメタAI(LLaMA)の適応と精錬を行った。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
論文 参考訳(メタデータ) (2023-03-24T15:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。