論文の概要: Exploring the landscape of large language models in medical question
answering
- arxiv url: http://arxiv.org/abs/2310.07225v2
- Date: Sat, 9 Mar 2024 23:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 15:48:29.362679
- Title: Exploring the landscape of large language models in medical question
answering
- Title(参考訳): 医療質問応答における大規模言語モデルの展望を探る
- Authors: Andrew M. Bean, Karolina Korgul, Felix Krones, Robert McCraith, Adam
Mahdi
- Abstract要約: ポーランドの医療ライセンス試験において、有名な大言語モデル(LLM)を8ドルで試験する。
各質問に対して、各モデルを割り当てられたトップ1の精度と分布確率でスコア付けする。
次に、人間の問題難易度、質問の長さ、他のモデルのスコアなどと比較する。
- 参考スコア(独自算出の注目度): 1.3499500088995462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid development of new large language models (LLMs), each claiming
to surpass previous models, an overall picture of medical LLM research can be
elusive. To address this challenge, we benchmark a range of top LLMs and
identify consistent patterns which appear across models. We test $8$ well-known
LLMs on $874$ newly collected questions from Polish medical licensing exams.
For each question, we score each model on the top-1 accuracy and the
distribution of probabilities assigned. We then compare with factors including
question difficulty for humans, question length, and the scores of the other
models. LLM accuracies were positively correlated pairwise ($0.29$ to $0.62$).
Model performance was also correlated with human performance ($0.07$ to
$0.16$), but negatively correlated to the difference between the question-level
accuracy of top-scoring and bottom-scoring humans ($-0.16$ to $-0.23$). The top
output probability and question length were positive and negative predictors of
accuracy respectively (p $< 0.05$). The top scoring LLM, GPT-4 Turbo, scored
$82\%$, followed by Med42, PaLM 2, Mixtral and GPT-3.5 around $63\%$. We found
evidence of similarities between models in which questions they answer
correctly, as well as similarities with human test takers. Larger models
typically performed better, but differences in training methods were also
highly impactful. Model accuracy was positively correlated with confidence, but
negatively correlated with question length. We expect that similar training
methods will lead these patterns to persist across future models. These
patterns can therefore aid medical experts in forming expectations about LLMs
as a category to support application research.
- Abstract(参考訳): 新しい大規模言語モデル(LLM)が急速に発展し、それぞれが以前のモデルを上回ると主張することから、医学LLM研究の全体像が解明される可能性がある。
この課題に対処するため、私たちはトップレベルのLSMをベンチマークし、モデルにまたがる一貫性のあるパターンを特定します。
ポーランドの医療ライセンス試験から新たに収集した874ドルの質問に対して、有名なLCMを8ドルでテストしました。
各質問に対して,各モデルをtop-1の精度と割り当てられた確率分布でスコア付けする。
次に、人間に対する質問難易度、質問の長さ、他のモデルのスコアなどについて比較する。
LLMの精度は正の相関関係(0.29$から0.62$)であった。
また, モデル性能は人的性能(0.07ドルから0.16ドル)と相関したが, トップスコアとボトムスコアの質問レベル精度(-0.16ドルから-0.23ドル)の違いに負の相関が認められた。
上位出力確率と質問長はそれぞれ正と負の精度の予測値であった(p $<0.05$)。
トップスコアのLPM, GPT-4 Turbo は 82 %$ で、次いで Med42, PaLM 2, Mixtral, GPT-3.5 は 63 %$ だった。
質問が正しく答えるモデル間の類似性の証拠と、人間のテストテイカーとの類似性を見出した。
より大型のモデルは通常より優れた性能を示したが、訓練方法の違いも非常に影響を受けていた。
モデル精度は信頼度と正の相関を示したが,質問長と負の相関を示した。
同様のトレーニング手法が、これらのパターンを将来のモデルにわたって持続させることを期待しています。
これらのパターンは、医学専門家がアプリケーション研究を支援するカテゴリとしてLSMに対する期待を形成するのに役立つ。
関連論文リスト
- Uncertainty Estimation of Large Language Models in Medical Question Answering [60.72223137560633]
大規模言語モデル(LLM)は、医療における自然言語生成の約束を示すが、事実的に誤った情報を幻覚させるリスクがある。
医学的問合せデータセットのモデルサイズが異なる人気不確実性推定(UE)手法をベンチマークする。
以上の結果から,本領域における現在のアプローチは,医療応用におけるUEの課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-11T16:51:33Z) - Replacing Judges with Juries: Evaluating LLM Generations with a Panel of Diverse Models [56.02275285521847]
LLm評価器のパネル(PoLL)を用いた評価モデルを提案する。
より多数の小さなモデルで構成されたPoLLは,1つの大判定器より優れ,不整合モデルファミリーの構成によるモデル内バイアスが小さく,しかも7倍以上のコストがかかる。
論文 参考訳(メタデータ) (2024-04-29T15:33:23Z) - Chain-of-Thought Unfaithfulness as Disguised Accuracy [0.0]
CoT(Chain-of-Thought)世代は、大きな言語モデルの内部計算(LLM)と一致している。
モデルが回答を生成するためのCoTへの依存度を測定する指標を提案する。
論文 参考訳(メタデータ) (2024-02-22T17:23:53Z) - Can Large Language Models Infer Causation from Correlation? [104.96351414570239]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z) - Better Diffusion Models Further Improve Adversarial Training [97.44991845907708]
拡散確率モデル (DDPM) によって生成されたデータは, 対人訓練を改善することが認識されている。
本稿では,効率のよい最新の拡散モデルを用いて,肯定的な回答を与える。
我々の逆向きに訓練されたモデルは、生成されたデータのみを使用してRobustBench上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-02-09T13:46:42Z) - Deconstructing Distributions: A Pointwise Framework of Learning [15.517383696434162]
テスト分布におけるモデルの平均性能と、この個々の点におけるポイントワイズ性能の関係について調べる。
プロファイルは、モデルとデータの構造 -- 分布の内外 -- に新しい洞察を与えることができる。
論文 参考訳(メタデータ) (2022-02-20T23:25:28Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - What's the best place for an AI conference, Vancouver or ______: Why
completing comparative questions is difficult [22.04829832439774]
ニューラルLMが妥当な質問をする(答えない)能力について研究する。
この課題の正確性は,質問が妥当かどうかの判断とよく関連している。
論文 参考訳(メタデータ) (2021-04-05T14:56:09Z) - How Can We Know When Language Models Know? On the Calibration of
Language Models for Question Answering [80.82194311274694]
言語モデルがいつ、自信を持って、特定のクエリに対する答えを知っているか、どのように知ることができるか?
我々は,T5,BART,GPT-2の3つの強力な生成モデルを検討した。
次に、そのようなモデルの校正方法を検討し、その信頼性スコアを正しさの確率と相関させる。
論文 参考訳(メタデータ) (2020-12-02T03:53:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。