論文の概要: FrenchMedMCQA: A French Multiple-Choice Question Answering Dataset for
Medical domain
- arxiv url: http://arxiv.org/abs/2304.04280v1
- Date: Sun, 9 Apr 2023 16:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:32:44.682716
- Title: FrenchMedMCQA: A French Multiple-Choice Question Answering Dataset for
Medical domain
- Title(参考訳): FrenchMedMCQA: 医療領域の複数の質問に対する回答データセット
- Authors: Yanis Labrak, Adrien Bazoge, Richard Dufour, Mickael Rouvier, Emmanuel
Morin, B\'eatrice Daille, Pierre-Antoine Gourraud
- Abstract要約: 本稿では,フレンチMedMCQAについて紹介する。フレンチMedMCQAは,医学領域向けにフランス語で公開されているMultiple-Choice Question Answering(MCQA)データセットである。
薬局におけるフランスの医学専門学位の実際の試験から取られた3,105の質問で構成されている。
- 参考スコア(独自算出の注目度): 4.989459243399296
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper introduces FrenchMedMCQA, the first publicly available
Multiple-Choice Question Answering (MCQA) dataset in French for medical domain.
It is composed of 3,105 questions taken from real exams of the French medical
specialization diploma in pharmacy, mixing single and multiple answers. Each
instance of the dataset contains an identifier, a question, five possible
answers and their manual correction(s). We also propose first baseline models
to automatically process this MCQA task in order to report on the current
performances and to highlight the difficulty of the task. A detailed analysis
of the results showed that it is necessary to have representations adapted to
the medical domain or to the MCQA task: in our case, English specialized models
yielded better results than generic French ones, even though FrenchMedMCQA is
in French. Corpus, models and tools are available online.
- Abstract(参考訳): 本稿では,フランス初の医療領域用マルチチョイス質問応答(mcqa)データセットである frenchmedmcqa について紹介する。
薬局におけるフランスの医学専門学位の実際の試験から得られた3,105の質問からなり、単式と複数式の回答が混ざり合わさっている。
データセットの各インスタンスには識別子、質問、5つの可能な回答と手動の修正が含まれている。
また,mcqaタスクを自動的に処理し,現在のパフォーマンスを報告し,タスクの難易度を強調するために,最初のベースラインモデルを提案する。
以上の結果から,医学領域やMCQAタスクに適応した表現が必要であることが示唆された。この場合,フランスMedMCQAはフランス語であるにもかかわらず,一般的なフランス語モデルよりも優れた結果を得た。
コーパス、モデル、ツールはオンラインで入手できる。
関連論文リスト
- Multiple Choice Questions and Large Languages Models: A Case Study with Fictional Medical Data [3.471944921180245]
非存在腺であるGlianorexに焦点をあてた架空の医療ベンチマークを開発した。
このアプローチにより、LSMの知識をテストテイク能力から切り離すことができます。
我々は、これらの質問をゼロショット設定で、様々なオープンソース、プロプライエタリ、ドメイン固有のLCMを評価した。
論文 参考訳(メタデータ) (2024-06-04T15:08:56Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - Large Language Models for Multi-Choice Question Classification of Medical Subjects [0.2020207586732771]
我々は, 深層ニューラルネットワークを用いて, 被ばく被ばく被ばく者への質問の分類を行う。
医療分野におけるマルチクラス化タスクにおいて,AI と LLM の能力について述べる。
論文 参考訳(メタデータ) (2024-03-21T17:36:08Z) - BiMediX: Bilingual Medical Mixture of Experts LLM [94.85518237963535]
英語とアラビア語の両方でシームレスに相互作用するように設計された、最初のバイリンガル医療混合物であるBiMediXを紹介する。
我々のモデルは、英語とアラビア語の幅広い医学的相互作用を促進し、さらに詳細を問い合わせるマルチターンチャットを含む。
そこで我々は,高品質な翻訳を保証するために,人間の洗練を図った英語からアラビア語への半自動翻訳パイプラインを提案する。
論文 参考訳(メタデータ) (2024-02-20T18:59:26Z) - Explanatory Argument Extraction of Correct Answers in Resident Medical
Exams [5.399800035598185]
本稿では, 正しい回答に対する説明的議論だけでなく, 誤った回答が正しい理由を推論するための議論を含む新しいデータセットを提案する。
このベンチマークにより,医師が作成した正しい回答の説明を識別する新しい抽出タスクを構築できる。
論文 参考訳(メタデータ) (2023-12-01T13:22:35Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Generating multiple-choice questions for medical question answering with
distractors and cue-masking [17.837685583005566]
医学的多重選択質問応答(MCQA)は特に困難である。
標準言語モデリングの事前訓練だけでは、最良の結果を得るには不十分です。
論文 参考訳(メタデータ) (2023-03-13T12:45:01Z) - MedMCQA : A Large-scale Multi-Subject Multi-Choice Dataset for Medical
domain Question Answering [0.0]
AIIMS と NEET PG のハイクオリティ試験 MCQ は 2.4k の医療トピックを対象とし,21 名の医療被験者を対象とする。
各サンプルには、より深い言語理解を必要とする質問、正しい回答、その他のオプションが含まれている。
論文 参考訳(メタデータ) (2022-03-27T18:59:16Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。