論文の概要: SLAKE: A Semantically-Labeled Knowledge-Enhanced Dataset for Medical
Visual Question Answering
- arxiv url: http://arxiv.org/abs/2102.09542v1
- Date: Thu, 18 Feb 2021 18:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:35:37.992323
- Title: SLAKE: A Semantically-Labeled Knowledge-Enhanced Dataset for Medical
Visual Question Answering
- Title(参考訳): SLAKE: 医用ビジュアル質問応答のためのセマンティックラベル付き知識強化データセット
- Authors: Bo Liu, Li-Ming Zhan, Li Xu, Lin Ma, Yan Yang, Xiao-Ming Wu
- Abstract要約: 経験者によって注釈付けされた包括的セマンティックラベルを用いた大規模なバイリンガルデータセットSLAKEを提示する。
さらに、SLAKEはよりリッチなモダリティを含み、現在利用可能なデータセットよりも多くの人体部分をカバーする。
- 参考スコア(独自算出の注目度): 29.496389523654596
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Medical visual question answering (Med-VQA) has tremendous potential in
healthcare. However, the development of this technology is hindered by the
lacking of publicly-available and high-quality labeled datasets for training
and evaluation. In this paper, we present a large bilingual dataset, SLAKE,
with comprehensive semantic labels annotated by experienced physicians and a
new structural medical knowledge base for Med-VQA. Besides, SLAKE includes
richer modalities and covers more human body parts than the currently available
dataset. We show that SLAKE can be used to facilitate the development and
evaluation of Med-VQA systems. The dataset can be downloaded from
http://www.med-vqa.com/slake.
- Abstract(参考訳): 医学的視覚的質問応答(Med-VQA)は、医療において大きな可能性を秘めている。
しかし、この技術の開発は、トレーニングと評価のための公開可能で高品質のラベル付きデータセットの欠如によって妨げられています。
本稿では、経験者によって注釈付けされた包括的セマンティックラベルと、Med-VQAのための新しい構造的医療知識ベースを備えた大規模なバイリンガルデータセットSLAKEを提案する。
さらに、SLAKEはよりリッチなモダリティを含み、現在利用可能なデータセットよりも多くの人体部分をカバーする。
SLAKEは,Med-VQAシステムの開発と評価を容易にするために利用できることを示す。
データセットはhttp://www.med-vqa.com/slakeからダウンロードできる。
関連論文リスト
- A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - MedSumm: A Multimodal Approach to Summarizing Code-Mixed Hindi-English
Clinical Queries [16.101969130235055]
本稿では,Multimodal Medical Codemixed Question Summarization MMCQSデータセットを紹介する。
このデータセットは、ヒンディー語と英語の混成医療クエリと視覚支援を組み合わせたものだ。
データセット、コード、トレーニング済みのモデルを公開します。
論文 参考訳(メタデータ) (2024-01-03T07:58:25Z) - BESTMVQA: A Benchmark Evaluation System for Medical Visual Question
Answering [8.547600133510551]
本稿では,BESTMVQAで表される医用視覚質問応答のベンチマーク評価SysTemを開発する。
本システムは,Med-VQAデータセットを自動構築する上で有用なツールを提供する。
簡単な構成で、ベンチマークデータセット上で選択したモデルを自動でトレーニングし、評価する。
論文 参考訳(メタデータ) (2023-12-13T03:08:48Z) - Med-Flamingo: a Multimodal Medical Few-shot Learner [58.85676013818811]
医療領域に適応したマルチモーダル・数ショット学習者であるMed-Flamingoを提案する。
OpenFlamingo-9Bに基づいて、出版物や教科書からの医療画像テキストデータのペア化とインターリーブ化を継続する。
本研究は,医療用VQA(ジェネレーティブ医療用VQA)の最初の人間評価である。
論文 参考訳(メタデータ) (2023-07-27T20:36:02Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - A Dataset for Medical Instructional Video Classification and Question
Answering [16.748852458926162]
本稿では,医療ビデオの理解を支援するシステム設計に向けた新たな課題とデータセットについて紹介する。
医療ビデオは多くの救急、救急、医療教育に関する質問に対して、可能な限りの回答を提供するだろうと信じています。
我々は,MedVidCLとMedVidQAデータセットを用いて各タスクをベンチマークし,マルチモーダル学習手法を提案する。
論文 参考訳(メタデータ) (2022-01-30T18:06:31Z) - Medical Visual Question Answering: A Survey [55.53205317089564]
VQA(Medicical Visual Question Answering)は、医療用人工知能と一般的なVQA課題の組み合わせである。
医療用VQAシステムは,医療用画像と自然言語による臨床的に関連性のある質問を前提として,妥当かつ説得力のある回答を予測することが期待されている。
論文 参考訳(メタデータ) (2021-11-19T05:55:15Z) - Knowledge-Aware Neural Networks for Medical Forum Question
Classification [13.22396257705293]
医療知識を意識したBERTベースモデル(MedBERT)を開発した。
医療フォーラム質問分類(MFQC)タスクのための多ラベルデータセットも提供します。
論文 参考訳(メタデータ) (2021-09-27T15:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。