論文の概要: Do "New Snow Tablets" Contain Snow? Large Language Models Over-Rely on Names to Identify Ingredients of Chinese Drugs
- arxiv url: http://arxiv.org/abs/2504.03786v2
- Date: Sun, 13 Apr 2025 12:33:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:46:00.018578
- Title: Do "New Snow Tablets" Contain Snow? Large Language Models Over-Rely on Names to Identify Ingredients of Chinese Drugs
- Title(参考訳): ニュースノーテーブル」は雪を含むか? 大規模言語モデルが中国の医薬品の欠陥を識別する名称をオーバーリライズする
- Authors: Sifan Li, Yujun Cai, Bryan Hooi, Nanyun Peng, Yiwei Wang,
- Abstract要約: 伝統的な中国医学(TCM)は医療に採用され、臨床応用をサポートするために、LLM(Large Language Models)が出現している。
これらのモデルの基本的な要件は、TCM薬物成分の正確な同定である。
我々の系統的分析では、一貫した障害パターンが明らかである: モデルでは、しばしば文字通り、薬物名を理解し、関連性に関係なく共通のハーブを過剰に使用し、不慣れな定式化に直面した時に不規則な振る舞いを示す。
- 参考スコア(独自算出の注目度): 79.00288739947406
- License:
- Abstract: Traditional Chinese Medicine (TCM) has seen increasing adoption in healthcare, with specialized Large Language Models (LLMs) emerging to support clinical applications. A fundamental requirement for these models is accurate identification of TCM drug ingredients. In this paper, we evaluate how general and TCM-specialized LLMs perform when identifying ingredients of Chinese drugs. Our systematic analysis reveals consistent failure patterns: models often interpret drug names literally, overuse common herbs regardless of relevance, and exhibit erratic behaviors when faced with unfamiliar formulations. LLMs also fail to understand the verification task. These findings demonstrate that current LLMs rely primarily on drug names rather than possessing systematic pharmacological knowledge. To address these limitations, we propose a Retrieval Augmented Generation (RAG) approach focused on ingredient names. Experiments across 220 TCM formulations show our method significantly improves accuracy from approximately 50% to 82% in ingredient verification tasks. Our work highlights critical weaknesses in current TCM-specific LLMs and offers a practical solution for enhancing their clinical reliability.
- Abstract(参考訳): 伝統的な中国医学(TCM)は医療に採用され、臨床応用をサポートするために、LLM(Large Language Models)が出現している。
これらのモデルの基本的な要件は、TCM薬物成分の正確な同定である。
本稿では,漢方薬の成分を同定する際,一般およびTCM特化LDMがどのように機能するかを評価する。
我々の系統的分析では、一貫した障害パターンが明らかである: モデルでは、しばしば文字通り、薬物名を理解し、関連性に関係なく共通のハーブを過剰に使用し、不慣れな定式化に直面した時に不規則な振る舞いを示す。
LLMは検証タスクの理解にも失敗した。
これらの結果は、現在のLSMは、体系的な薬理学知識を持つのではなく、主に薬物名に依存していることを示している。
これらの制約に対処するため,材料名に着目した検索拡張生成(RAG)手法を提案する。
220TCMの定式化実験により, 約50%から82%の精度向上が得られた。
本研究は,現在のTCM特異的LSMの重大な弱点を浮き彫りにし,臨床信頼性を高めるための実用的なソリューションを提供する。
関連論文リスト
- Fact or Guesswork? Evaluating Large Language Model's Medical Knowledge with Structured One-Hop Judgment [108.55277188617035]
大規模言語モデル(LLM)は、様々な下流タスクドメインで広く採用されているが、実際の医学的知識を直接呼び起こし適用する能力はいまだ探索されていない。
既存の医療QAベンチマークの多くは、複雑な推論やマルチホップ推論を評価しており、LSM固有の医療知識を推論能力から切り離すことが困難である。
LLMの1ホップの医療知識を測定するために特別に設計されたデータセットであるMedical Knowledge Judgmentを紹介する。
論文 参考訳(メタデータ) (2025-02-20T05:27:51Z) - Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - Reliable and diverse evaluation of LLM medical knowledge mastery [6.825565574784612]
本稿では,医療用LDMの信頼性と多種多様な検査サンプルを生成する新しいフレームワークを提案する。
提案手法を用いて,12の有名なLCMの医学的事実知識の習得を体系的に調査する。
論文 参考訳(メタデータ) (2024-09-22T03:13:38Z) - Rx Strategist: Prescription Verification using LLM Agents System [0.0]
Rx Strategistは、知識グラフと異なる検索戦略を使用して、エージェントフレームワーク内のLarge Language Models(LLM)のパワーを強化する。
この多面的手法により、カスタム構築のアクティブ成分データベースから多段階のLCMパイプラインと信頼できる情報検索が可能になる。
以上の結果から,Rx Strategist が多くの LLM を上回り,高度臨床薬剤師に匹敵する成績を示した。
論文 参考訳(メタデータ) (2024-09-05T11:42:26Z) - MALADE: Orchestration of LLM-powered Agents with Retrieval Augmented Generation for Pharmacovigilance [17.008132675107355]
本稿ではPhV(Pharmacovigilance)の問題に焦点をあて,さまざまなテキストソースからADE(Adverse Drug Events)を特定することの重要性と課題について述べる。
MALADEは,薬物ラベルデータからADEを抽出するための大規模言語モデルと検索拡張生成を用いた,最初の効果的な協調型マルチエージェントシステムである。
論文 参考訳(メタデータ) (2024-08-03T22:14:13Z) - Emerging Opportunities of Using Large Language Models for Translation
Between Drug Molecules and Indications [6.832024637226738]
薬物分子とそれに対応する指標を翻訳する新しい課題を提案する。
表示からの分子の生成、またはその逆は、病気のより効率的なターゲティングを可能にする。
論文 参考訳(メタデータ) (2024-02-14T21:33:13Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - A Survey of Large Language Models in Medicine: Progress, Application, and Challenge [85.09998659355038]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。