論文の概要: ECG-Expert-QA: A Benchmark for Evaluating Medical Large Language Models in Heart Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2502.17475v2
- Date: Wed, 26 Feb 2025 12:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 17:39:51.111705
- Title: ECG-Expert-QA: A Benchmark for Evaluating Medical Large Language Models in Heart Disease Diagnosis
- Title(参考訳): ECG-Expert-QA : 心臓疾患診断における医学的大言語モデルの評価基準
- Authors: Xu Wang, Jiaju Kang, Puyu Han,
- Abstract要約: ECG-Expert-QAは、ECG解釈における診断能力を評価するために設計された総合的なマルチモーダルデータセットである。
データセットは47,211個の精巧にキュレートされた質問応答ペアで構成され、臨床シナリオの範囲にまたがる。
- 参考スコア(独自算出の注目度): 3.334973867478745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ECG-Expert-QA, a comprehensive multimodal dataset designed for evaluating diagnostic capabilities in ECG interpretation, integrating real clinical data with systematically generated synthetic cases. The dataset encompasses six fundamental diagnostic tasks, comprising 47,211 meticulously curated question-answer pairs that span a spectrum of clinical scenarios, from basic rhythm analysis to complex case interpretation. By simulating challenging clinical cases through a rigorous medical knowledge-guided process, ECG-Expert-QA not only enhances the availability of annotated diagnostic data but also significantly increases the complexity and diversity of clinical presentations, including rare cardiac conditions and temporal progression patterns. This design enables comprehensive evaluation of medical language models across multiple dimensions, including diagnostic accuracy, clinical reasoning, and knowledge integration. To facilitate global research collaboration, ECG-Expert-QA is available in both Chinese and English versions, with rigorous quality control ensuring linguistic and clinical consistency. The dataset's challenging diagnostic tasks, which include interpretation of complex arrhythmias, identification of subtle ischemic changes, and integration of clinical context, establish it as an effective benchmark for advancing AI-assisted ECG interpretation and pushing the boundaries of current diagnostic models. Our dataset is open-source and available at https://github.com/Zaozzz/ECG-Expert-QA
- Abstract(参考訳): 本稿では,心電図解釈における診断能力を評価するための総合的マルチモーダルデータセットであるECG-Expert-QAについて述べる。
このデータセットは6つの基本的な診断タスクを含み、基本的なリズム分析から複雑なケース解釈まで、様々な臨床シナリオにまたがる47,211の精巧にキュレートされた質問応答ペアから構成される。
厳密な医療知識誘導プロセスを通じて、困難な臨床症例をシミュレートすることにより、ECG-Expert-QAは、注釈付き診断データの可用性を高めるだけでなく、希少な心条件や時間的進行パターンを含む臨床プレゼンテーションの複雑さと多様性を著しく向上させる。
この設計は、診断精度、臨床推論、知識統合を含む、複数の次元にわたる医療言語モデルの包括的評価を可能にする。
グローバルな研究協力を促進するため、ECG-Expert-QAは中国語版と英語版の両方で利用可能であり、言語的および臨床的整合性を保証する厳格な品質管理が可能である。
このデータセットの困難な診断タスクは、複雑な不整脈の解釈、微妙な虚血変化の識別、臨床コンテキストの統合を含む。
私たちのデータセットはオープンソースで、https://github.com/Zaozzz/ECG-Expert-QAで公開されています。
関連論文リスト
- MedCoT: Medical Chain of Thought via Hierarchical Expert [48.91966620985221]
本稿では,新しい階層的検証手法であるMedCoTについて述べる。
生体画像検査における解釈可能性と精度を高めるように設計されている。
4つの標準Med-VQAデータセットに対する実験的評価は、MedCoTが既存の最先端アプローチを上回ることを示している。
論文 参考訳(メタデータ) (2024-12-18T11:14:02Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice through Interactive Sequential Benchmarking [58.25862290294702]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
本研究は,人工知能(AI)モデルを用いた医用合成データ生成の臨床評価に焦点を当てた。
本論文は,a) 医用専門家による合成画像の体系的評価のためのプロトコルを提示し,b) 高分解能WCE画像合成のための新しい変分オートエンコーダモデルであるTIDE-IIを評価する。
その結果、TIDE-IIは臨床的に関連性のあるWCE画像を生成し、データの不足に対処し、診断ツールの強化に役立つことがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - Electrocardiogram Report Generation and Question Answering via Retrieval-Augmented Self-Supervised Modeling [19.513904491604794]
ECG-ReGenは、ECG-to-textレポート生成と質問応答のための検索ベースのアプローチである。
事前学習と動的検索とLarge Language Model(LLM)ベースの改善を組み合わせることで、ECG-ReGenはECGデータと関連するクエリを効果的に分析する。
論文 参考訳(メタデータ) (2024-09-13T12:50:36Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - medIKAL: Integrating Knowledge Graphs as Assistants of LLMs for Enhanced Clinical Diagnosis on EMRs [13.806201934732321]
medIKALは、診断能力を高めるために、LLM(Large Language Models)と知識グラフ(KG)を組み合わせる。
medIKALは、そのタイプに基づいて医療記録のエンティティに重み付けされた重要性を割り当て、KG内の候補疾患の正確な局在を可能にする。
新たに導入した中国のEMRデータセットの広範な実験により,medIKALの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-20T13:56:52Z) - ECG Semantic Integrator (ESI): A Foundation ECG Model Pretrained with LLM-Enhanced Cardiological Text [14.06147507373525]
本研究は,12誘導ECG信号の学習表現の品質とロバスト性の向上を目的とした,新しいマルチモーダルコントラスト保持フレームワークを提案する。
私たちのフレームワークは、Cardio Query Assistant(CQA)とECG Semantics Integrator(ESI)の2つの重要なコンポーネントで構成されています。
論文 参考訳(メタデータ) (2024-05-26T06:45:39Z) - Can Generative AI Support Patients' & Caregivers' Informational Needs? Towards Task-Centric Evaluation Of AI Systems [0.7124736158080937]
人間の理解と意思決定を中心とする評価パラダイムを開発する。
具体的なタスクにおける人を支援するための生成AIシステムの有用性について検討する。
我々は,放射線技師の反応に対して,最先端の2つの生成AIシステムを評価する。
論文 参考訳(メタデータ) (2024-01-31T23:24:37Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - ECG-QA: A Comprehensive Question Answering Dataset Combined With
Electrocardiogram [12.167108953668464]
ECG-QAは、ECG分析用に特別に設計された最初のデータセットである。
データセットには70の質問テンプレートが含まれており、幅広い臨床関連ECGトピックをカバーしている。
我々のデータセットには、異なる2つのECGの比較分析を必要とするものを含む、多様なECG解釈質問が含まれている。
論文 参考訳(メタデータ) (2023-06-21T07:14:57Z) - Automated Cardiovascular Record Retrieval by Multimodal Learning between
Electrocardiogram and Clinical Report [28.608260758775316]
本稿では,Large Language Models (LLM) と Vision-Transformer (ViT) モデルにおける最近のブレークスルーを活用し,ECGの解釈に新たなアプローチを導入する。
入力ECGデータに基づいて,最も類似した症例を自動的に同定する手法を提案する。
本研究は,未開発地域において診断サービスを提供する上で重要な資源となる可能性がある。
論文 参考訳(メタデータ) (2023-04-13T06:32:25Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。