論文の概要: Medico 2025: Visual Question Answering for Gastrointestinal Imaging
- arxiv url: http://arxiv.org/abs/2508.10869v1
- Date: Thu, 14 Aug 2025 17:43:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.435945
- Title: Medico 2025: Visual Question Answering for Gastrointestinal Imaging
- Title(参考訳): Medico 2025: 消化器画像検査のための視覚的質問応答
- Authors: Sushant Gautam, Vajira Thambawita, Michael Riegler, Pål Halvorsen, Steven Hicks,
- Abstract要約: メディコ2025チャレンジは、消化器画像(GI)の視覚質問応答(VQA)に対処する。
この課題は、臨床的に関連する質問に答える説明可能な人工知能(XAI)モデルの開発に焦点を当てている。
- 参考スコア(独自算出の注目度): 2.8271229358498595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Medico 2025 challenge addresses Visual Question Answering (VQA) for Gastrointestinal (GI) imaging, organized as part of the MediaEval task series. The challenge focuses on developing Explainable Artificial Intelligence (XAI) models that answer clinically relevant questions based on GI endoscopy images while providing interpretable justifications aligned with medical reasoning. It introduces two subtasks: (1) answering diverse types of visual questions using the Kvasir-VQA-x1 dataset, and (2) generating multimodal explanations to support clinical decision-making. The Kvasir-VQA-x1 dataset, created from 6,500 images and 159,549 complex question-answer (QA) pairs, serves as the benchmark for the challenge. By combining quantitative performance metrics and expert-reviewed explainability assessments, this task aims to advance trustworthy Artificial Intelligence (AI) in medical image analysis. Instructions, data access, and an updated guide for participation are available in the official competition repository: https://github.com/simula/MediaEval-Medico-2025
- Abstract(参考訳): メディコ2025チャレンジは、MediaEvalタスクシリーズの一部として編成された消化器画像(GI)の視覚質問応答(VQA)に対処する。
この課題は、医学的推論に沿った解釈可能な正当化を提供しながら、GI内視鏡画像に基づいて臨床的に関連する疑問に答える説明可能な人工知能(XAI)モデルの開発に焦点を当てている。
1) Kvasir-VQA-x1データセットを用いた多様な視覚的質問への回答,(2)臨床的意思決定を支援するためのマルチモーダルな説明を生成する。
6500のイメージと159,549の複雑なQA(QA)ペアで構成されたKvasir-VQA-x1データセットが、この課題のベンチマークとして機能している。
定量的なパフォーマンス指標と専門家レビューによる説明可能性評価を組み合わせることで、医療画像解析における信頼できる人工知能(AI)の進歩を目指す。
公式コンペティションリポジトリには、インストラクション、データアクセス、アップデートされた参加ガイドが提供されている。
関連論文リスト
- Querying GI Endoscopy Images: A VQA Approach [0.0]
VQA(Visual Question Answering)は、自然言語処理(NLP)と画像理解を組み合わせて、与えられた画像に関する質問に答える。
本研究は,GI内視鏡画像の医学的視覚的疑問に答えるためにFlorence2モデルの適応を探求するImageCLEFmed-MEDVQA-GI 2025 subtask 1の提出である。
論文 参考訳(メタデータ) (2025-07-25T13:03:46Z) - Expert Knowledge-Aware Image Difference Graph Representation Learning for Difference-Aware Medical Visual Question Answering [45.058569118999436]
メインイメージとレファレンスイメージのペアが与えられたこのタスクは、両方の疾患に関するいくつかの疑問に答えようとしている。
我々は164,324対の主画像と参照画像から700,703対のQAペアを含むMIMIC-Diff-VQAという新しいデータセットを収集した。
論文 参考訳(メタデータ) (2023-07-22T05:34:18Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - Interpretable Medical Image Visual Question Answering via Multi-Modal
Relationship Graph Learning [45.746882253686856]
医用視覚質問応答 (VQA) は、入力医療画像に関する臨床的に関係のある質問に答えることを目的としている。
まず,胸部X線画像を中心に,包括的で大規模な医療用VQAデータセットを収集した。
このデータセットに基づいて、3つの異なる関係グラフを構築することによって,新たなベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-02-19T17:46:16Z) - Medical Visual Question Answering: A Survey [55.53205317089564]
VQA(Medicical Visual Question Answering)は、医療用人工知能と一般的なVQA課題の組み合わせである。
医療用VQAシステムは,医療用画像と自然言語による臨床的に関連性のある質問を前提として,妥当かつ説得力のある回答を予測することが期待されている。
論文 参考訳(メタデータ) (2021-11-19T05:55:15Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。