論文の概要: BESTMVQA: A Benchmark Evaluation System for Medical Visual Question
Answering
- arxiv url: http://arxiv.org/abs/2312.07867v1
- Date: Wed, 13 Dec 2023 03:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 16:46:54.394639
- Title: BESTMVQA: A Benchmark Evaluation System for Medical Visual Question
Answering
- Title(参考訳): bestmvqa : 医用ビジュアル質問応答のためのベンチマーク評価システム
- Authors: Xiaojie Hong, Zixin Song, Liangzhi Li, Xiaoli Wang, Feiyan Liu
- Abstract要約: 本稿では,BESTMVQAで表される医用視覚質問応答のベンチマーク評価SysTemを開発する。
本システムは,Med-VQAデータセットを自動構築する上で有用なツールを提供する。
簡単な構成で、ベンチマークデータセット上で選択したモデルを自動でトレーニングし、評価する。
- 参考スコア(独自算出の注目度): 8.547600133510551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical Visual Question Answering (Med-VQA) is a very important task in
healthcare industry, which answers a natural language question with a medical
image. Existing VQA techniques in information systems can be directly applied
to solving the task. However, they often suffer from (i) the data insufficient
problem, which makes it difficult to train the state of the arts (SOTAs) for
the domain-specific task, and (ii) the reproducibility problem, that many
existing models have not been thoroughly evaluated in a unified experimental
setup. To address these issues, this paper develops a Benchmark Evaluation
SysTem for Medical Visual Question Answering, denoted by BESTMVQA. Given
self-collected clinical data, our system provides a useful tool for users to
automatically build Med-VQA datasets, which helps overcoming the data
insufficient problem. Users also can conveniently select a wide spectrum of
SOTA models from our model library to perform a comprehensive empirical study.
With simple configurations, our system automatically trains and evaluates the
selected models over a benchmark dataset, and reports the comprehensive results
for users to develop new techniques or perform medical practice. Limitations of
existing work are overcome (i) by the data generation tool, which automatically
constructs new datasets from unstructured clinical data, and (ii) by evaluating
SOTAs on benchmark datasets in a unified experimental setup. The demonstration
video of our system can be found at https://youtu.be/QkEeFlu1x4A. Our code and
data will be available soon.
- Abstract(参考訳): 医学的視覚的質問応答(med-vqa)は、医療業界において非常に重要なタスクであり、自然言語質問に医療画像で答える。
情報システムにおける既存のVQA技術は、タスクの解決に直接適用することができる。
しかし、しばしば苦しむ。
(i)データ不足のため、ドメイン特化作業のための技術状況(sota)の訓練が困難である。
(ii)再現性問題、既存モデルの多くが統一実験環境で徹底的に評価されていないこと。
これらの課題に対処するため,BESTMVQA で表される医療視覚質問応答のためのベンチマーク評価システムを開発した。
自己コンパイル型臨床データから,本システムはMed-VQAデータセットを自動構築する上で有用なツールを提供する。
また,モデルライブラリから幅広いsotaモデルを簡便に選択し,総合的な実験研究を行うことができる。
簡単な構成で、ベンチマークデータセット上で選択したモデルを自動的にトレーニングし評価し、ユーザが新しい技術を開発したり、医療実践を行うための総合的な結果を報告する。
既存の仕事の限界は克服される
i) 構造化されていない臨床データから新しいデータセットを自動的に作成するデータ生成ツール
(2) ベンチマークデータセットのSOTAを統一的な実験装置で評価すること。
我々のシステムのデモビデオはhttps://youtu.be/QkEeFlu1x4Aで見ることができる。
コードとデータはもうすぐ手に入るでしょう。
関連論文リスト
- Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Visual Question Answering in the Medical Domain [13.673890873313354]
本稿では,Med-VQAタスクのための小さなデータセットの問題を軽減するために,新しいコントラスト学習事前学習手法を提案する。
提案モデルでは,VQA-Med 2019テストセットで60%の精度を達成し,他の最先端のMed-VQAモデルに匹敵する結果を得た。
論文 参考訳(メタデータ) (2023-09-20T06:06:10Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - Huatuo-26M, a Large-scale Chinese Medical QA Dataset [29.130166934474044]
本稿では,2600万対のQAペアを用いた医療質問応答(QA)データセットをリリースする。
検索と生成の両方の観点から、データセットの既存のアプローチをベンチマークします。
このデータセットは、医学研究に貢献するだけでなく、患者と臨床医の両方にも役立ちます。
論文 参考訳(メタデータ) (2023-05-02T15:33:01Z) - Automated Medical Coding on MIMIC-III and MIMIC-IV: A Critical Review
and Replicability Study [60.56194508762205]
我々は、最先端の医療自動化機械学習モデルを再現し、比較し、分析する。
その結果, 弱い構成, サンプル化の不十分さ, 評価の不十分さなどにより, いくつかのモデルの性能が低下していることが判明した。
再生モデルを用いたMIMIC-IVデータセットの総合評価を行った。
論文 参考訳(メタデータ) (2023-04-21T11:54:44Z) - A Real Use Case of Semi-Supervised Learning for Mammogram Classification
in a Local Clinic of Costa Rica [0.5541644538483946]
ディープラーニングモデルのトレーニングには、かなりの量のラベル付きイメージが必要です。
多くの公開データセットが、さまざまな病院や診療所のデータで構築されている。
ラベルなしデータを利用した半教師付き深層学習手法であるMixMatchを提案し評価した。
論文 参考訳(メタデータ) (2021-07-24T22:26:50Z) - Multiple Meta-model Quantifying for Medical Visual Question Answering [17.263363346756854]
本稿では,メタアノテーションを効果的に学習し,医療用VQAタスクに有意義な特徴を活用するマルチメタモデルを提案する。
提案手法は, 自動アノテーションによるメタデータ向上, ノイズラベルの扱い, 医療用VQAタスクにロバストな機能を提供するメタモデルを生成する。
論文 参考訳(メタデータ) (2021-05-19T04:06:05Z) - Active Selection of Classification Features [0.0]
人口統計などの補助的データは、最も有益なMRIスキャンを持つ個人を含む小さなサンプルを選択するのに役立ちます。
本研究では,2つの実用的手法を提案し,その性能を3つの実世界のベンチマークデータセットで評価する。
論文 参考訳(メタデータ) (2021-02-26T18:19:08Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。