論文の概要: On the Performance of an Explainable Language Model on PubMedQA
- arxiv url: http://arxiv.org/abs/2504.05074v1
- Date: Mon, 07 Apr 2025 13:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:12:32.869572
- Title: On the Performance of an Explainable Language Model on PubMedQA
- Title(参考訳): PubMedQAにおける説明可能な言語モデルの性能について
- Authors: Venkat Srinivasan, Vishaal Jatav, Anushka Chandrababu, Geetika Sharma,
- Abstract要約: 本稿では,代替アーキテクチャに基づく説明可能な言語モデルであるGyanの結果を,PubmedQAデータセット上で報告する。
Gyanは信頼でき、透明で、幻覚がなく、重要なトレーニングや計算資源を必要としない。
- 参考スコア(独自算出の注目度): 1.1484381570538684
- License:
- Abstract: Large language models (LLMs) have shown significant abilities in retrieving medical knowledge, reasoning over it and answering medical questions comparably to physicians. However, these models are not interpretable, hallucinate, are difficult to maintain and require enormous compute resources for training and inference. In this paper, we report results from Gyan, an explainable language model based on an alternative architecture, on the PubmedQA data set. The Gyan LLM is a compositional language model and the model is decoupled from knowledge. Gyan is trustable, transparent, does not hallucinate and does not require significant training or compute resources. Gyan is easily transferable across domains. Gyan-4.3 achieves SOTA results on PubmedQA with 87.1% accuracy compared to 82% by MedPrompt based on GPT-4 and 81.8% by Med-PaLM 2 (Google and DeepMind). We will be reporting results for other medical data sets - MedQA, MedMCQA, MMLU - Medicine in the future.
- Abstract(参考訳): 大規模言語モデル(LLM)は、医学的知識の検索、それに対する推論、医学的疑問への回答において有意義な能力を示した。
しかし、これらのモデルは解釈可能ではなく、幻覚的であり、維持が困難であり、訓練や推論に膨大な計算資源を必要とする。
本稿では,代替アーキテクチャに基づく説明可能な言語モデルであるGyanについて,PubmedQAデータセットを用いて報告する。
Gyan LLMは構成言語モデルであり、モデルは知識から切り離されている。
Gyanは信頼でき、透明で、幻覚がなく、重要なトレーニングや計算資源を必要としない。
ジャンは容易にドメイン間で移動可能である。
Gyan-4.3 は PubmedQA 上で 87.1% の精度で SOTA 結果を達成するが、MedPrompt では GPT-4 で 82% 、Med-PaLM 2 (Google と DeepMind) で 81.8% である。
今後,MedQA,MedMCQA,MMLUの医療データについて報告する。
関連論文リスト
- MEG: Medical Knowledge-Augmented Large Language Models for Question Answering [37.3562521243773]
本稿では,医療知識を付加したLCMのパラメータ効率向上手法であるMEGを提案する。
本手法は,4つの医用マルチチョイスデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-11-06T12:57:58Z) - MedGo: A Chinese Medical Large Language Model [20.770607085079195]
本稿では,中国の医学大言語モデルであるMedGoについて述べる。
MedGoは、高品質な教師なし医療データ、教師付きデータ、嗜好アライメントデータを組み合わせて訓練された。
その結果、MedGoは様々な中国の医療情報処理タスクで有望なパフォーマンスを達成できた。
論文 参考訳(メタデータ) (2024-10-27T12:52:52Z) - Efficient Medical Question Answering with Knowledge-Augmented Question Generation [5.145812785735094]
本稿では,医療領域における小言語モデルの習熟度を2倍のアプローチで向上させる手法を提案する。
まず、医療教科書のコーパスでモデルを微調整する。
そして、GPT-4を用いて、下流タスクに類似した質問を生成し、教科書の知識でトリガーし、モデルを微調整する。
論文 参考訳(メタデータ) (2024-05-23T14:53:52Z) - Capabilities of Gemini Models in Medicine [100.60391771032887]
医療専門のマルチモーダルモデルであるMed-Geminiを紹介する。
メドジェニーニを14の医療ベンチマークで評価し,その内10に新たな最先端(SoTA)性能を確立した。
我々の結果は、Med-Geminiの可能性を示唆する証拠を提供するが、より厳密な評価は実世界の展開に先立って重要である。
論文 参考訳(メタデータ) (2024-04-29T04:11:28Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - BioMedLM: A 2.7B Parameter Language Model Trained On Biomedical Text [82.7001841679981]
BioMedLM は270億のパラメータ GPT スタイルの自己回帰モデルであり、PubMed の抽象概念と全記事に特化して訓練されている。
微調整すると、BioMedLMはより大規模なモデルと競合する強力な多重選択のバイオメディカルな質問応答結果を生成することができる。
BioMedLMは、医療トピックに関する患者の質問に対する有用な回答を生成するために、微調整することもできる。
論文 参考訳(メタデータ) (2024-03-27T10:18:21Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - HuatuoGPT, towards Taming Language Model to Be a Doctor [67.96794664218318]
HuatuoGPTは医療相談のための大規模言語モデル(LLM)である。
我々は,ChatGPTのテクティット蒸留データと,教師付き微調整段階の医師のテクティトゥルワールドデータの両方を活用する。
論文 参考訳(メタデータ) (2023-05-24T11:56:01Z) - Can large language models reason about medical questions? [7.95779617839642]
実世界の難解な質問に対する回答と推論に,オープンソースモデルとクローズドモデルを適用することができるかを検討する。
我々は、MedQA-USMLE、MedMCQA、PubMedQAの3つの人気のある医療ベンチマークと複数のプロンプトシナリオに焦点を当てた。
生成されたCoTのエキスパートアノテーションに基づいて、InstructGPTは専門家の知識を読み、分析し、リコールすることができることがわかった。
論文 参考訳(メタデータ) (2022-07-17T11:24:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。