論文の概要: Uncertainty-Aware Text-to-Program for Question Answering on Structured
Electronic Health Records
- arxiv url: http://arxiv.org/abs/2203.06918v1
- Date: Mon, 14 Mar 2022 08:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 13:59:18.593500
- Title: Uncertainty-Aware Text-to-Program for Question Answering on Structured
Electronic Health Records
- Title(参考訳): 構造化電子健康記録を用いた質問応答のための不確実性対応テキスト・ツー・プログラム
- Authors: Daeyoung Kim, Seongsu Bae, Seungho Kim, Edward Choi
- Abstract要約: EHR-QAのためのプログラムベースモデル(NLQ2Program)を,今後の方向性に向けた第一歩として設計する。
グラフベースのEHR-QAデータセットであるMIMICSPARQL*に,プログラムベースのアプローチを半教師付き方式で取り組んだ。
信頼性の高い EHR-QA モデルに対して,不確実性分解法を適用し,入力問題におけるあいまいさを計測する。
- 参考スコア(独自算出の注目度): 8.272573489245717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question Answering on Electronic Health Records (EHR-QA) has a significant
impact on the healthcare domain, and it is being actively studied. Previous
research on structured EHR-QA focuses on converting natural language queries
into query language such as SQL or SPARQL (NLQ2Query), so the problem scope is
limited to pre-defined data types by the specific query language. In order to
expand the EHR-QA task beyond this limitation to handle multi-modal medical
data and solve complex inference in the future, more primitive systemic
language is needed. In this paper, we design the program-based model
(NLQ2Program) for EHR-QA as the first step towards the future direction. We
tackle MIMICSPARQL*, the graph-based EHR-QA dataset, via a program-based
approach in a semi-supervised manner in order to overcome the absence of gold
programs. Without the gold program, our proposed model shows comparable
performance to the previous state-of-the-art model, which is an NLQ2Query model
(0.9\% gain). In addition, for a reliable EHR-QA model, we apply the
uncertainty decomposition method to measure the ambiguity in the input
question. We empirically confirmed data uncertainty is most indicative of the
ambiguity in the input question.
- Abstract(参考訳): EHR-QA(Electronic Health Records)に対する質問回答は、医療領域に大きな影響を与え、積極的に研究されている。
構造化EHR-QAに関するこれまでの研究は、自然言語クエリをSQLやSPARQL(NLQ2Query)などのクエリ言語に変換することに重点を置いていた。
EHR-QAタスクをこの制限を超えて、マルチモーダル医療データを処理し、将来複雑な推論を解決するためには、より原始的な体系言語が必要である。
本稿では,将来に向けた第一歩として,EHR-QAのためのプログラムベースモデル(NLQ2Program)を設計する。
我々は、グラフベースのEHR-QAデータセットであるMIMICSPARQL*に、プログラムベースのアプローチを半教師付き方式で取り組んで、ゴールドプログラムの欠如を克服する。
金のプログラムがなければ,提案モデルでは,NLQ2Queryモデル(0.9\%ゲイン)である従来の最先端モデルと同等の性能を示す。
さらに,信頼性の高いehr-qaモデルに対して,不確実性分解法を適用し,入力質問の曖昧性を測定する。
入力問題における曖昧性の最も顕著なデータ不確かさを実証的に確認した。
関連論文リスト
- LG AI Research & KAIST at EHRSQL 2024: Self-Training Large Language Models with Pseudo-Labeled Unanswerable Questions for a Reliable Text-to-SQL System on EHRs [58.59113843970975]
テキストから回答へのモデルは、Electronic Health Recordsを知識のない医療専門家に利用できるようにする上で重要なものだ。
疑似ラベル付き非解答質問を用いた自己学習戦略を提案し,EHRのテキスト・ツー・アンサーモデルの信頼性を高める。
論文 参考訳(メタデータ) (2024-05-18T03:25:44Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Question Answering for Complex Electronic Health Records Database using
Unified Encoder-Decoder Architecture [8.656936724622145]
自然言語質問をSPARQLなどのクエリに変換するEHR-QAのための統一デコーダアーキテクチャUniQAを設計する。
また、複雑な医療用語や様々なタイプミスに対処し、SPARQL構文をよりよく学習するための、シンプルで効果的な入力マスキング(IM)を提案する。
UniQAは、EHRドメインで最も複雑なNLQ2データセットであるMIMIC*(14.2%ゲイン)と、そのタイプミスドバージョンに対して、大幅なパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2021-11-14T05:01:38Z) - Knowledge Graph-based Question Answering with Electronic Health Records [30.901617020638124]
Question Answering (QA)は、インテリジェントマシンの開発と評価のための広く使われているフレームワークである。
本稿では,自然言語クエリをSPARQLに変換するグラフベースのEHR QAを提案する。
すべてのデータセットはオープンソースとして公開されており、EHR QAの研究をさらに促進している。
論文 参考訳(メタデータ) (2020-10-19T11:31:20Z) - Hierarchical Deep Multi-modal Network for Medical Visual Question
Answering [25.633660028022195]
本稿では,エンドユーザの質問/問い合わせを分析し,分類する階層的なディープマルチモーダルネットワークを提案する。
我々は、QSモデルを階層的な深層多モードニューラルネットワークに統合し、医用画像に関するクエリに対する適切な回答を生成する。
論文 参考訳(メタデータ) (2020-09-27T07:24:41Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。