論文の概要: DrugEHRQA: A Question Answering Dataset on Structured and Unstructured
Electronic Health Records For Medicine Related Queries
- arxiv url: http://arxiv.org/abs/2205.01290v1
- Date: Tue, 3 May 2022 03:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 23:23:46.733302
- Title: DrugEHRQA: A Question Answering Dataset on Structured and Unstructured
Electronic Health Records For Medicine Related Queries
- Title(参考訳): drugehrqa: 医療関連質問に対する構造化および非構造化電子健康記録の質問応答データセット
- Authors: Jayetri Bardhan, Anthony Colas, Kirk Roberts, Daisy Zhe Wang
- Abstract要約: 本稿では, 質問応答データセット(DrugEHRQA)を開発した。
我々のデータセットには、70,000以上の質問応答対を含む、医薬品関連のクエリがある。
- 参考スコア(独自算出の注目度): 7.507210439502174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops the first question answering dataset (DrugEHRQA)
containing question-answer pairs from both structured tables and unstructured
notes from a publicly available Electronic Health Record (EHR). EHRs contain
patient records, stored in structured tables and unstructured clinical notes.
The information in structured and unstructured EHRs is not strictly disjoint:
information may be duplicated, contradictory, or provide additional context
between these sources. Our dataset has medication-related queries, containing
over 70,000 question-answer pairs. To provide a baseline model and help analyze
the dataset, we have used a simple model (MultimodalEHRQA) which uses the
predictions of a modality selection network to choose between EHR tables and
clinical notes to answer the questions. This is used to direct the questions to
the table-based or text-based state-of-the-art QA model. In order to address
the problem arising from complex, nested queries, this is the first time
Relation-Aware Schema Encoding and Linking for Text-to-SQL Parsers (RAT-SQL)
has been used to test the structure of query templates in EHR data. Our goal is
to provide a benchmark dataset for multi-modal QA systems, and to open up new
avenues of research in improving question answering over EHR structured data by
using context from unstructured clinical data.
- Abstract(参考訳): 本稿では、構造化表と電子健康記録(EHR)からの非構造化ノートの両方から質問対を含む質問応答データセット(DrugEHRQA)を開発した。
EHRには患者の記録が含まれており、構造化されたテーブルに格納されている。
構造化された、非構造化された EHR の情報は厳密には不一致ではない:情報は重複、矛盾、あるいはこれらのソース間で追加のコンテキストを提供することができる。
当社のデータセットには,70,000以上の質問と回答のペアを含む,薬剤関連クエリがあります。
ベースラインモデルを提供し,データセットの分析を支援するために,モダリティ選択ネットワークの予測を用いてehlテーブルと臨床ノートのどちらを選択して質問に答える簡易モデル (multimodalehrqa) を用いた。
これは質問をテーブルベースまたはテキストベースの最先端QAモデルに誘導するために使用される。
複雑でネストしたクエリから生じる問題に対処するために、EHRデータにおけるクエリテンプレートの構造をテストするために、RAT-SQLパーサのためのRelation-Aware Schema Encoding and Linkingが使用されるのはこれが初めてである。
我々の目標は、マルチモーダルQAシステムのためのベンチマークデータセットを提供することであり、構造化されていない臨床データからコンテキストを用いて、EHR構造化データに対する質問応答を改善するための新たな研究の道を開くことである。
関連論文リスト
- EHRCon: Dataset for Checking Consistency between Unstructured Notes and Structured Tables in Electronic Health Records [14.69982800306006]
EHRは、構造化されたデータ(例えば、医薬品)と詳細な臨床ノート(例えば、医師注記)を組み合わせることで、包括的な患者の医療記録を保存するのに不可欠なものである。
これらの要素は、簡単なデータ検索に不可欠であり、患者のケアに対する深い文脈的な洞察を提供する。
しかし、直感的なEHRシステム設計とヒューマンエラーにより、しばしば不一致に悩まされる。
EHRにおける構造化テーブルと非構造化ノート間のデータの一貫性を確保するために設計された新しいデータセットとタスクであるEHRConを開発した。
論文 参考訳(メタデータ) (2024-06-24T06:26:50Z) - KET-QA: A Dataset for Knowledge Enhanced Table Question Answering [63.56707527868466]
本研究では,TableQAの外部知識源として知識ベース(KB)を用いることを提案する。
すべての質問は、答えるテーブルとサブグラフの両方からの情報を統合する必要がある。
我々は,膨大な知識サブグラフから関連する情報を抽出するために,レトリバー・レゾナー構造パイプラインモデルを設計する。
論文 参考訳(メタデータ) (2024-05-13T18:26:32Z) - Enhancing Open-Domain Table Question Answering via Syntax- and
Structure-aware Dense Retrieval [21.585255812861632]
オープンドメインのテーブル質問応答は、大量のテーブルから情報を検索して抽出することで、質問に対する回答を提供することを目的としている。
オープンドメインテーブルQAの既存の研究は、直接テキスト検索手法を採用するか、テーブル検索のための符号化層にのみテーブル構造を考慮する。
オープンドメインテーブルQAタスクに対する構文と構造を意識した検索手法を提案する。
論文 参考訳(メタデータ) (2023-09-19T10:40:09Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - EHRSQL: A Practical Text-to-SQL Benchmark for Electronic Health Records [36.213730355895805]
発声は、医師、看護師、保険審査・健康記録チームを含む222人の病院職員から集められた。
我々はこれらの質問を、MIMIC-IIIとeICUの2つのオープンソースのEHRデータベースに手動でリンクし、データセットに様々な時間表現と解決不可能な質問を格納した。
論文 参考訳(メタデータ) (2023-01-16T05:10:20Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - Question Answering for Complex Electronic Health Records Database using
Unified Encoder-Decoder Architecture [8.656936724622145]
自然言語質問をSPARQLなどのクエリに変換するEHR-QAのための統一デコーダアーキテクチャUniQAを設計する。
また、複雑な医療用語や様々なタイプミスに対処し、SPARQL構文をよりよく学習するための、シンプルで効果的な入力マスキング(IM)を提案する。
UniQAは、EHRドメインで最も複雑なNLQ2データセットであるMIMIC*(14.2%ゲイン)と、そのタイプミスドバージョンに対して、大幅なパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2021-11-14T05:01:38Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z) - A Graph Representation of Semi-structured Data for Web Question
Answering [96.46484690047491]
本稿では、半構造化データとそれらの関係の構成要素の体系的分類に基づいて、Webテーブルとリストのグラフ表現を提案する。
本手法は,最先端のベースラインに対してF1スコアを3.90ポイント向上させる。
論文 参考訳(メタデータ) (2020-10-14T04:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。