論文の概要: Medication Error Detection Using Contextual Language Models
- arxiv url: http://arxiv.org/abs/2201.03035v1
- Date: Sun, 9 Jan 2022 15:21:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 02:13:11.400491
- Title: Medication Error Detection Using Contextual Language Models
- Title(参考訳): 文脈言語モデルを用いた薬剤エラー検出
- Authors: Yu Jiang and Christian Poellabauer
- Abstract要約: 本稿では,BERTに基づく文脈言語モデルを用いて,テキストや音声の異常を検出する方法について述べる。
提案モデルは,患者データなどのコンテキスト情報に基づいて,テキスト依存のパターンを学習し,誤出力を予測する。
実験の結果、テキスト入力では96.63%、音声入力では79.55%の精度が得られた。
- 参考スコア(独自算出の注目度): 12.100309608440103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medication errors most commonly occur at the ordering or prescribing stage,
potentially leading to medical complications and poor health outcomes. While it
is possible to catch these errors using different techniques; the focus of this
work is on textual and contextual analysis of prescription information to
detect and prevent potential medication errors. In this paper, we demonstrate
how to use BERT-based contextual language models to detect anomalies in written
or spoken text based on a data set extracted from real-world medical data of
thousands of patient records. The proposed models are able to learn patterns of
text dependency and predict erroneous output based on contextual information
such as patient data. The experimental results yield accuracy up to 96.63% for
text input and up to 79.55% for speech input, which is satisfactory for most
real-world applications.
- Abstract(参考訳): 薬のエラーは注文や処方の段階で起こることが多く、医療上の合併症や健康状態の悪化につながる可能性がある。
異なる手法を用いてこれらのエラーをキャッチすることは可能だが、本研究の焦点は、潜在的な薬物エラーを検出し予防するための処方薬情報のテキスト的および文脈的分析である。
本稿では,BERTに基づく文脈言語モデルを用いて,数千件の患者記録の実際の医療データから抽出したデータセットに基づいて,テキストや音声の異常を検出する方法について述べる。
提案モデルでは,テキスト依存のパターンを学習し,患者データなどの文脈情報に基づいて誤出力を予測できる。
実験の結果、テキスト入力の精度は96.63%、音声入力の精度は79.55%となり、実世界のほとんどのアプリケーションで十分である。
関連論文リスト
- Leveraging text data for causal inference using electronic health
records [2.4374097382908477]
電子健康データを用いて因果推論を支援するためにテキストデータをどのように利用できるかを示す。
我々は、因果推論のためのマッチングを用いた研究に焦点をあてる。
臨床データの二次分析の範囲を、量的データが質の悪い領域や存在しない領域にまで広げたい。
論文 参考訳(メタデータ) (2023-06-09T16:06:02Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - Cross-lingual Argument Mining in the Medical Domain [5.9647924003148365]
このプロジェクトは、手動による介入なしに注釈付きデータを生成する効果的な方法として、自動で英語からターゲット言語(スペイン語)にアノテーションを翻訳し、プロジェクトすることを示す。
また、スペイン語で自動生成したデータを用いて、元の英語評価設定の結果を改善する方法も示す。
論文 参考訳(メタデータ) (2023-01-25T11:21:12Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Reliable and Trustworthy Machine Learning for Health Using Dataset Shift
Detection [7.263558963357268]
予測不能なMLモデルの振る舞いは、特に健康領域において、その安全性に対する深刻な懸念を引き起こす。
マハラノビス距離およびグラム行列に基づく分布外検出法は,分布外データを高精度に検出できることを示す。
次に、アウト・オブ・ディストリビューションスコアを人間の解釈可能なConFIDENCE SCOREに変換し、ユーザーの健康MLアプリケーションとのインタラクションに与える影響を調査する。
論文 参考訳(メタデータ) (2021-10-26T20:49:01Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。