論文の概要: Question Answering for Electronic Health Records: A Scoping Review of
datasets and models
- arxiv url: http://arxiv.org/abs/2310.08759v2
- Date: Wed, 8 Nov 2023 01:22:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 18:44:36.265002
- Title: Question Answering for Electronic Health Records: A Scoping Review of
datasets and models
- Title(参考訳): 電子健康記録に対する質問応答:データセットとモデルのスコーピングレビュー
- Authors: Jayetri Bardhan, Kirk Roberts, Daisy Zhe Wang
- Abstract要約: 患者関連データに関する質問回答システム(QA)は、臨床医と患者の両方を支援することができる。
患者データはElectronic Health Records(EHRs)に保存される。
本研究は, EHRに対するQAに関する既存研究の方法論的検討を目的としたものである。
- 参考スコア(独自算出の注目度): 7.759719313292494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question Answering (QA) systems on patient-related data can assist both
clinicians and patients. They can, for example, assist clinicians in
decision-making and enable patients to have a better understanding of their
medical history. Significant amounts of patient data are stored in Electronic
Health Records (EHRs), making EHR QA an important research area. In EHR QA, the
answer is obtained from the medical record of the patient. Because of the
differences in data format and modality, this differs greatly from other
medical QA tasks that employ medical websites or scientific papers to retrieve
answers, making it critical to research EHR question answering. This study
aimed to provide a methodological review of existing works on QA over EHRs. We
searched for articles from January 1st, 2005 to September 30th, 2023 in four
digital sources including Google Scholar, ACL Anthology, ACM Digital Library,
and PubMed to collect relevant publications on EHR QA. 4111 papers were
identified for our study, and after screening based on our inclusion criteria,
we obtained a total of 47 papers for further study. Out of the 47 papers, 25
papers were about EHR QA datasets, and 37 papers were about EHR QA models. It
was observed that QA on EHRs is relatively new and unexplored. Most of the
works are fairly recent. Also, it was observed that emrQA is by far the most
popular EHR QA dataset, both in terms of citations and usage in other papers.
Furthermore, we identified the different models used in EHR QA along with the
evaluation metrics used for these models.
- Abstract(参考訳): 患者関連データの質問応答(qa)システムは、臨床医と患者の両方を助ける。
例えば、臨床医の意思決定を支援し、患者が自分の医療歴をよりよく理解できるようにする。
重要な患者データはElectronic Health Records(EHRs)に保存され、EHR QAが重要な研究領域となる。
EHR QAでは、患者の医療記録から回答を得る。
データ形式とモダリティの違いから、医療用ウェブサイトや科学論文を駆使して回答を得る他の医療用QAタスクとは大きく異なるため、EHR質問応答の研究が重要である。
本研究は, EHRに対するQAに関する既存研究の方法論的検討を目的としたものである。
我々は,2005年1月1日から2023年9月30日まで,Google Scholar, ACL Anthology, ACM Digital Library, PubMedの4つのデジタル資料を検索して,EHR QAに関する関連出版物を収集した。
本研究は4111論文を同定し, 包括的基準に基づく検診の結果, 計47論文が得られた。
47の論文のうち25の論文はEHR QAデータセットに関するもので、37の論文はEHR QAモデルに関するものだった。
EHRsのQAは比較的新規で未探索であることがわかった。
作品のほとんどがごく最近である。
また、EmrQAは、他の論文における引用と使用の両面で、最も人気のあるEHR QAデータセットであることがわかった。
さらに、これらのモデルで使用される評価指標とともに、EHR QAで使用される異なるモデルを特定した。
関連論文リスト
- Onco-Retriever: Generative Classifier for Retrieval of EHR Records in Oncology [4.159343412286402]
大規模言語モデルを用いて,データセットを手頃な価格で作成するための青写真を提案する。
提案手法は,30~50F-1点のレトリバーをプロプライエティよりも優れている。
実世界のEHRデータに対する広範囲な手動評価を行い、異なるモデルの遅延解析を行う。
論文 参考訳(メタデータ) (2024-04-10T02:02:34Z) - Recent Advances in Predictive Modeling with Electronic Health Records [71.19967863320647]
EHRデータを予測モデリングに利用すると、その特徴からいくつかの課題が生じる。
深層学習は、医療を含む様々な応用においてその優位性を示している。
論文 参考訳(メタデータ) (2024-02-02T00:31:01Z) - De-identification of clinical free text using natural language
processing: A systematic review of current approaches [48.343430343213896]
自然言語処理は、その非識別プロセスの自動化の可能性を繰り返し示してきた。
本研究の目的は,過去13年間に臨床自由テキストの非識別化が進展したことを示す体系的な証拠を提供することである。
論文 参考訳(メタデータ) (2023-11-28T13:20:41Z) - Clinfo.ai: An Open-Source Retrieval-Augmented Large Language Model
System for Answering Medical Questions using Scientific Literature [44.715854387549605]
我々はClinfo.aiをリリースした。Clinfo.aiはオープンソースのWebアプリケーションで、動的に検索された科学的文献に基づいて臨床上の質問に答える。
我々は PubMedRS-200 上で Clinfo.ai および他の公開 OpenQA システムのベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2023-10-24T19:43:39Z) - Using Weak Supervision and Data Augmentation in Question Answering [0.12499537119440242]
新型コロナウイルス(COVID-19)のパンデミックの始まりは、タイムリーで病気固有の質問に答えるために、バイオメディカル文献へのアクセスの必要性を強調した。
我々は、深層ニューラルネットワークQAモデルのトレーニングにおいて、弱い監視とデータ拡張が果たす役割について検討する。
システムの中核部におけるQAモデルのコンテキストにおける手法の評価を行い、COVID-19に関する質問に答える。
論文 参考訳(メタデータ) (2023-09-28T05:16:51Z) - Learning to Ask Like a Physician [24.15961995052862]
2,000以上の質問からなる新たな質問データセットDiSCQについて紹介する。
質問は、100以上のMIMIC-III放電サマリーの医療専門家によって生成される。
我々は、このデータセットを分析し、医療専門家が求めている情報のタイプを特徴付ける。
論文 参考訳(メタデータ) (2022-06-06T15:50:54Z) - Medical Visual Question Answering: A Survey [55.53205317089564]
VQA(Medicical Visual Question Answering)は、医療用人工知能と一般的なVQA課題の組み合わせである。
医療用VQAシステムは,医療用画像と自然言語による臨床的に関連性のある質問を前提として,妥当かつ説得力のある回答を予測することが期待されている。
論文 参考訳(メタデータ) (2021-11-19T05:55:15Z) - An Analysis of a BERT Deep Learning Strategy on a Technology Assisted
Review Task [91.3755431537592]
文書検診はEvidenced Based Medicineにおける中心的な課題である。
本稿では,BERT や PubMedBERT を組み込んだ DL 文書分類手法と DL 類似性検索経路を提案する。
2017年と2018年のCLEF eHealth コレクションにおいて,私の DL 戦略の検索の有効性を検証し,評価した。
論文 参考訳(メタデータ) (2021-04-16T19:45:27Z) - Deep Representation Learning of Patient Data from Electronic Health
Records (EHR): A Systematic Review [20.621261286239967]
患者表現学習とは、電子健康記録から意味のある情報をエンコードする患者の密度の高い数学的表現を学ぶことを指す。
本研究は, この分野の体系的なレビューを行い, 方法論的観点から質的, 定量的な分析を行った。
論文 参考訳(メタデータ) (2020-10-06T15:18:02Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。