論文の概要: EpilepsyLLM: Domain-Specific Large Language Model Fine-tuned with
Epilepsy Medical Knowledge
- arxiv url: http://arxiv.org/abs/2401.05908v1
- Date: Thu, 11 Jan 2024 13:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 14:41:33.255002
- Title: EpilepsyLLM: Domain-Specific Large Language Model Fine-tuned with
Epilepsy Medical Knowledge
- Title(参考訳): EpilepsyLLM: てんかん医学知識を応用したドメイン特化大言語モデル
- Authors: Xuyang Zhao and Qibin Zhao and Toshihisa Tanaka
- Abstract要約: 大規模言語モデル(LLM)は包括的および生成能力において顕著な性能を達成する。
本研究では, エピレプシーと日本語の特定の疾患に焦点を当て, エピレプシーLLM(エピレプシーLLM)と呼ばれる, カスタマイズされたLLMを導入する。
データセットには、疾患に関する基本的な情報、一般的な治療方法や薬物、生活や仕事における重要なメモが含まれている。
- 参考スコア(独自算出の注目度): 28.409333447902693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With large training datasets and massive amounts of computing sources, large
language models (LLMs) achieve remarkable performance in comprehensive and
generative ability. Based on those powerful LLMs, the model fine-tuned with
domain-specific datasets posseses more specialized knowledge and thus is more
practical like medical LLMs. However, the existing fine-tuned medical LLMs are
limited to general medical knowledge with English language. For
disease-specific problems, the model's response is inaccurate and sometimes
even completely irrelevant, especially when using a language other than
English. In this work, we focus on the particular disease of Epilepsy with
Japanese language and introduce a customized LLM termed as EpilepsyLLM. Our
model is trained from the pre-trained LLM by fine-tuning technique using
datasets from the epilepsy domain. The datasets contain knowledge of basic
information about disease, common treatment methods and drugs, and important
notes in life and work. The experimental results demonstrate that EpilepsyLLM
can provide more reliable and specialized medical knowledge responses.
- Abstract(参考訳): 大規模なトレーニングデータセットと大量のコンピューティングソースにより、大規模言語モデル(LLM)は包括的および生成能力において顕著なパフォーマンスを達成する。
これらの強力なLLMに基づいて、ドメイン固有のデータセットで微調整されたモデルは、より専門的な知識を持ち、医用LLMのようにより実用的なものである。
しかし、既存の微調整医療 LLM は英語の一般的な医学知識に限られている。
病気特有の問題では、モデルの反応は不正確であり、特に英語以外の言語を使用する場合、時には完全に無関係である。
本研究では, エピレプシーと日本語の特定の疾患に焦点を当て, エピレプシーLLMと呼ばれる独自のLSMを導入する。
我々のモデルは, てんかん領域からのデータセットを用いた微調整技術により, 予め訓練したLSMから訓練される。
データセットには、疾患に関する基本的な情報、一般的な治療方法や薬物、生活や仕事における重要なメモが含まれている。
実験の結果、てんかんはより信頼性が高く、専門的な医学的知識の応答を提供できることが示された。
関連論文リスト
- Contextual Evaluation of Large Language Models for Classifying Tropical and Infectious Diseases [0.9798965031257411]
我々は、オープンソースの熱帯感染症(TRIND)データセットを構築し、11000以上のプロンプトを産出する人口統計学的、意味論的、消費者的増強を含むように拡張した。
一般のLSMと医学のLSMと、LSMの結果を人間の専門家と比較し、LSMのパフォーマンスを評価した。
本研究では, TRINDs-LMのプロトタイプを開発し, LLMが健康にどのような影響を及ぼすかを知るための遊び場を提供する。
論文 参考訳(メタデータ) (2024-09-13T21:28:54Z) - Fine-Tuning Medical Language Models for Enhanced Long-Contextual Understanding and Domain Expertise [2.1869349221557814]
大規模言語モデル(LLM)は様々な専門分野に広く応用されている。
特定のドメイン知識の改善にもかかわらず,長期理解における医学的LLMの性能は著しく低下している。
論文 参考訳(メタデータ) (2024-07-16T09:37:20Z) - Can Large Language Models abstract Medical Coded Language? [0.0]
大規模言語モデル(LLM)は医療コードを認識しており、これらのコードから正確に名前を生成することができる。
本研究は,大規模言語モデル(LLM)が医療コードを認識し,それらのコードから正確に名前を生成することができるかどうかを評価する。
論文 参考訳(メタデータ) (2024-03-16T06:18:15Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - A Survey of Large Language Models in Medicine: Progress, Application, and Challenge [85.09998659355038]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - Knowledge-tuning Large Language Models with Structured Medical Knowledge
Bases for Reliable Response Generation in Chinese [29.389119917322102]
大規模言語モデル(LLM)は、汎用ドメインにおける多種多様な自然言語処理(NLP)タスクにおいて顕著な成功を収めている。
本稿では,LLMがドメイン知識を効率的に把握するために,構造化された医療知識ベースを活用する知識チューニングを提案する。
また、医療知識ベースから構築された中国の医学知識質問応答データセットであるcMedKnowQAをリリースする。
論文 参考訳(メタデータ) (2023-09-08T07:42:57Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。