論文の概要: Hengqin-RA-v1: Advanced Large Language Model for Diagnosis and Treatment of Rheumatoid Arthritis with Dataset based Traditional Chinese Medicine
- arxiv url: http://arxiv.org/abs/2501.02471v1
- Date: Sun, 05 Jan 2025 07:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:09:24.418501
- Title: Hengqin-RA-v1: Advanced Large Language Model for Diagnosis and Treatment of Rheumatoid Arthritis with Dataset based Traditional Chinese Medicine
- Title(参考訳): Hengqin-RA-v1: 慢性関節リウマチの診断と治療のための大規模言語モデル
- Authors: Yishen Liu, Shengda Luo, Zishao Zhong, Tongtong Wu, Jianguo Zhang, Peiyao Ou, Yong Liang, Liang Liu, Hudan Pan,
- Abstract要約: 本稿では,中国伝統医学(TCM)に特化した最初の大規模言語モデルであるHengqin-RA-v1を紹介する。
また,古代中国医学文献,古典文献,現代臨床研究から収集したRA特異的データセットであるHQ-GCM-RA-C1も紹介した。
- 参考スコア(独自算出の注目度): 9.423846262482716
- License:
- Abstract: Large language models (LLMs) primarily trained on English texts, often face biases and inaccuracies in Chinese contexts. Their limitations are pronounced in fields like Traditional Chinese Medicine (TCM), where cultural and clinical subtleties are vital, further hindered by a lack of domain-specific data, such as rheumatoid arthritis (RA). To address these issues, this paper introduces Hengqin-RA-v1, the first large language model specifically tailored for TCM with a focus on diagnosing and treating RA. We also present HQ-GCM-RA-C1, a comprehensive RA-specific dataset curated from ancient Chinese medical literature, classical texts, and modern clinical studies. This dataset empowers Hengqin-RA-v1 to deliver accurate and culturally informed responses, effectively bridging the gaps left by general-purpose models. Extensive experiments demonstrate that Hengqin-RA-v1 outperforms state-of-the-art models, even surpassing the diagnostic accuracy of TCM practitioners in certain cases.
- Abstract(参考訳): 大きな言語モデル(LLM)は主に英語のテキストに基づいて訓練され、しばしば中国語の文脈でバイアスや不正確さに直面している。
伝統的な中国医学(TCM)のような分野では、文化的・臨床的微妙さが不可欠であり、リウマチ性関節炎(RA)のようなドメイン固有のデータが欠如している。
これらの問題に対処するために,本論文では,RAの診断と治療に焦点をあてたTCMに適した,最初の大規模言語モデルであるHengqin-RA-v1を紹介する。
また,古代中国医学文献,古典文献,現代臨床研究から収集したRA特異的データセットであるHQ-GCM-RA-C1も紹介した。
このデータセットは、Hengqin-RA-v1に正確で文化的に情報を提供する権限を与え、汎用モデルによって残されたギャップを効果的に埋める。
広汎な実験によると、Hengqin-RA-v1は最先端のモデルよりも優れており、TCM実践者の診断精度を超越している。
関連論文リスト
- Technical Report: Small Language Model for Japanese Clinical and Medicine [0.0]
本報告では, NCVC-slm-1 という名称の日本臨床・医学用小言語モデル (SLM) を提案する。
他の大規模言語モデルと比較して、NCVC-slm-1は、JMED-LLMで合計8のタスクで最高スコアを示した。
論文 参考訳(メタデータ) (2024-12-21T01:12:48Z) - HC-LLM: Historical-Constrained Large Language Models for Radiology Report Generation [89.3260120072177]
本稿では,放射線学レポート生成のための歴史制約付き大規模言語モデル (HC-LLM) フレームワークを提案する。
胸部X線写真から経時的特徴と経時的特徴を抽出し,疾患の進行を捉える診断報告を行った。
特に,本手法は,テスト中の履歴データなしでも良好に動作し,他のマルチモーダル大規模モデルにも容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-15T06:04:16Z) - BianCang: A Traditional Chinese Medicine Large Language Model [22.582027277167047]
BianCangはTCM固有の大規模言語モデル(LLM)で、まずドメイン固有の知識を注入し、目標とする刺激によって調整する。
実際の病院記録に基づく事前学習コーパス,ChP-TCMデータセット,および中華人民共和国の薬局類由来のChP-TCMデータセットを構築した。
我々は,TCMの理解を深めるための包括的なデータセットを構築し,連続的な事前学習と微調整のための広範囲なTCMと医療コーパスを収集した。
論文 参考訳(メタデータ) (2024-11-17T10:17:01Z) - Comprehensive Study on German Language Models for Clinical and Biomedical Text Understanding [16.220303664681172]
我々は、翻訳された英語の医療データとドイツの臨床データの3Bトークンから2.4Bトークンを抽出し、いくつかのドイツの医療言語モデルを事前訓練した。
得られたモデルは、名前付きエンティティ認識(NER)、多ラベル分類、抽出質問応答など、様々なドイツの下流タスクで評価された。
本研究は, 臨床モデルとスクラッチからトレーニングした成績を一致させたり, 上回ったりする能力が, 連続事前訓練によって実証されていることを結論する。
論文 参考訳(メタデータ) (2024-04-08T17:24:04Z) - HuatuoGPT-II, One-stage Training for Medical Adaption of LLMs [61.41790586411816]
HuatuoGPT-IIは、いくつかのベンチマークで、中国の医学領域における最先端のパフォーマンスを示している。
さらに、ChatGPTやGPT-4といったプロプライエタリなモデルよりも、特に中国伝統医学において優れています。
論文 参考訳(メタデータ) (2023-11-16T10:56:24Z) - TCM-GPT: Efficient Pre-training of Large Language Models for Domain
Adaptation in Traditional Chinese Medicine [11.537289359051975]
ドメイン固有コーパスを用いた効率的な事前学習を行うTCMDA(TCM Domain Adaptation)アプローチを提案する。
具体的には、まず、ドメインキーワードを識別し、一般コーパスから再帰することで、TCM固有の大規模コーパスTCM-Corpus-1Bを構築する。
そこで,本TCMDAでは,事前学習および微調整のために,事前学習したモデルの重量を凍結するLoRAを活用し,ランク分解行列を用いて特定の密度層を効率的に訓練する。
論文 参考訳(メタデータ) (2023-11-03T08:54:50Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - TCM-SD: A Benchmark for Probing Syndrome Differentiation via Natural
Language Processing [31.190757020836656]
TCM診断・治療システムの中核的課題に焦点をあてる -- 症候群分化(SD)
本データセットは,148症例を対象とした実世界の臨床記録54,152例を含む。
本稿では、ZY-BERTと呼ばれるドメイン固有の事前学習言語モデルを提案する。
論文 参考訳(メタデータ) (2022-03-21T09:59:54Z) - Medical-VLBERT: Medical Visual Language BERT for COVID-19 CT Report
Generation With Alternate Learning [70.71564065885542]
本稿では,医療用ビジュアル言語BERT(Medical-VLBERT)モデルを用いて,新型コロナウイルススキャンの異常を同定する。
このモデルは、知識事前学習と伝達の2つの手順で、代替的な学習戦略を採用する。
COVID-19患者に対する医療報告の自動作成のために,中国語で368例,胸部CTで1104例の検診を行った。
論文 参考訳(メタデータ) (2021-08-11T07:12:57Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。