論文の概要: FrenchMedMCQA: A French Multiple-Choice Question Answering Dataset for
Medical domain
- arxiv url: http://arxiv.org/abs/2304.04280v1
- Date: Sun, 9 Apr 2023 16:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:32:44.682716
- Title: FrenchMedMCQA: A French Multiple-Choice Question Answering Dataset for
Medical domain
- Title(参考訳): FrenchMedMCQA: 医療領域の複数の質問に対する回答データセット
- Authors: Yanis Labrak, Adrien Bazoge, Richard Dufour, Mickael Rouvier, Emmanuel
Morin, B\'eatrice Daille, Pierre-Antoine Gourraud
- Abstract要約: 本稿では,フレンチMedMCQAについて紹介する。フレンチMedMCQAは,医学領域向けにフランス語で公開されているMultiple-Choice Question Answering(MCQA)データセットである。
薬局におけるフランスの医学専門学位の実際の試験から取られた3,105の質問で構成されている。
- 参考スコア(独自算出の注目度): 4.989459243399296
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper introduces FrenchMedMCQA, the first publicly available
Multiple-Choice Question Answering (MCQA) dataset in French for medical domain.
It is composed of 3,105 questions taken from real exams of the French medical
specialization diploma in pharmacy, mixing single and multiple answers. Each
instance of the dataset contains an identifier, a question, five possible
answers and their manual correction(s). We also propose first baseline models
to automatically process this MCQA task in order to report on the current
performances and to highlight the difficulty of the task. A detailed analysis
of the results showed that it is necessary to have representations adapted to
the medical domain or to the MCQA task: in our case, English specialized models
yielded better results than generic French ones, even though FrenchMedMCQA is
in French. Corpus, models and tools are available online.
- Abstract(参考訳): 本稿では,フランス初の医療領域用マルチチョイス質問応答(mcqa)データセットである frenchmedmcqa について紹介する。
薬局におけるフランスの医学専門学位の実際の試験から得られた3,105の質問からなり、単式と複数式の回答が混ざり合わさっている。
データセットの各インスタンスには識別子、質問、5つの可能な回答と手動の修正が含まれている。
また,mcqaタスクを自動的に処理し,現在のパフォーマンスを報告し,タスクの難易度を強調するために,最初のベースラインモデルを提案する。
以上の結果から,医学領域やMCQAタスクに適応した表現が必要であることが示唆された。この場合,フランスMedMCQAはフランス語であるにもかかわらず,一般的なフランス語モデルよりも優れた結果を得た。
コーパス、モデル、ツールはオンラインで入手できる。
関連論文リスト
- Benchmarking Large Language Models on Answering and Explaining
Challenging Medical Questions [21.23352614758691]
JAMAクリニカルチャレンジとメドブルレットという2つの新しいデータセットを構築した。
JAMA 臨床チャレンジは、挑戦的な臨床ケースに基づく質問から成り、Medbullets は USMLE Step 2&3 スタイルの臨床質問から成り立っている。
各種のプロンプトを用いて2つのデータセット上で4つのLSMを評価する。
論文 参考訳(メタデータ) (2024-02-28T05:44:41Z) - BiMediX: Bilingual Medical Mixture of Experts LLM [94.85518237963535]
英語とアラビア語の両方でシームレスに相互作用するように設計された、最初のバイリンガル医療混合物であるBiMediXを紹介する。
我々のモデルは、英語とアラビア語の幅広い医学的相互作用を促進し、さらに詳細を問い合わせるマルチターンチャットを含む。
そこで我々は,高品質な翻訳を保証するために,人間の洗練を図った英語からアラビア語への半自動翻訳パイプラインを提案する。
論文 参考訳(メタデータ) (2024-02-20T18:59:26Z) - Explanatory Argument Extraction of Correct Answers in Resident Medical
Exams [5.399800035598185]
本稿では, 正しい回答に対する説明的議論だけでなく, 誤った回答が正しい理由を推論するための議論を含む新しいデータセットを提案する。
このベンチマークにより,医師が作成した正しい回答の説明を識別する新しい抽出タスクを構築できる。
論文 参考訳(メタデータ) (2023-12-01T13:22:35Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Generating multiple-choice questions for medical question answering with
distractors and cue-masking [17.837685583005566]
医学的多重選択質問応答(MCQA)は特に困難である。
標準言語モデリングの事前訓練だけでは、最良の結果を得るには不十分です。
論文 参考訳(メタデータ) (2023-03-13T12:45:01Z) - MedMCQA : A Large-scale Multi-Subject Multi-Choice Dataset for Medical
domain Question Answering [0.0]
AIIMS と NEET PG のハイクオリティ試験 MCQ は 2.4k の医療トピックを対象とし,21 名の医療被験者を対象とする。
各サンプルには、より深い言語理解を必要とする質問、正しい回答、その他のオプションが含まれている。
論文 参考訳(メタデータ) (2022-03-27T18:59:16Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - What Disease does this Patient Have? A Large-scale Open Domain Question
Answering Dataset from Medical Exams [35.644831813174974]
専門医試験から収集した医療問題の解決を目的とした,最初のフリーフォームOpenQAデータセットであるMedQAを提示する。
英語、簡体字、中国語の3言語に対応しており、それぞれ12,723、34,251、14,123の質問がある。
論文 参考訳(メタデータ) (2020-09-28T05:07:51Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。