論文の概要: Zero- and Few-shot Named Entity Recognition and Text Expansion in Medication Prescriptions using ChatGPT
- arxiv url: http://arxiv.org/abs/2409.17683v1
- Date: Thu, 26 Sep 2024 09:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 20:46:02.608575
- Title: Zero- and Few-shot Named Entity Recognition and Text Expansion in Medication Prescriptions using ChatGPT
- Title(参考訳): ChatGPTを用いた薬用処方文におけるゼロショットと少数ショットのエンティティ認識とテキスト拡張
- Authors: Natthanaphop Isaradech, Andrea Riedel, Wachiranun Sirikul, Markus Kreuzthaler, Stefan Schulz,
- Abstract要約: 大規模言語モデル(LLM)は、入力プロンプトに応答してテキストを生成する有望な能力を示している。
われわれはChatGPT 3.5を用いて、排出サマリーにおける医薬品のステートメントを自動構築し、拡張する。
- 参考スコア(独自算出の注目度): 0.384477122144121
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Introduction: Medication prescriptions are often in free text and include a mix of two languages, local brand names, and a wide range of idiosyncratic formats and abbreviations. Large language models (LLMs) have shown promising ability to generate text in response to input prompts. We use ChatGPT 3.5 to automatically structure and expand medication statements in discharge summaries and thus make them easier to interpret for people and machines. Methods: Named-entity Recognition (NER) and Text Expansion (EX) are used in a zero- and few-shot setting with different prompt strategies. 100 medication statements were manually annotated and curated. NER performance was measured by using strict and partial matching. For the task EX, two experts interpreted the results by assessing semantic equivalence between original and expanded statements. The model performance was measured by precision, recall, and F1 score. Results: For NER, the best-performing prompt reached an average F1 score of 0.94 in the test set. For EX, the few-shot prompt showed superior performance among other prompts, with an average F1 score of 0.87. Conclusion: Our study demonstrates good performance for NER and EX tasks in free-text medication statements using ChatGPT. Compared to a zero-shot baseline, a few-shot approach prevented the system from hallucinating, which would be unacceptable when processing safety-relevant medication data.
- Abstract(参考訳): 導入: 処方薬は、しばしば無料のテキストで、二つの言語、地元のブランド名、幅広い慣用的なフォーマットと略語が混在している。
大規模言語モデル(LLM)は、入力プロンプトに応答してテキストを生成する有望な能力を示している。
われわれはChatGPT 3.5を用いて、排出サマリーにおける医薬品のステートメントを自動構築および拡張し、人や機械の解釈を容易にする。
メソッド:NER(named-entity Recognition)とEX(Text Expansion)は、異なるプロンプト戦略を持つゼロショットおよび少数ショット設定で使用される。
100の薬品が手動で注記され、治療された。
NER性能は厳密かつ部分的マッチングを用いて測定した。
課題EXでは、2人の専門家が、原文と拡張文の意味的等価性を評価することによって、結果を解釈した。
モデル性能は、精度、リコール、F1スコアで測定された。
結果: NERでは,最高成績のプロンプトがテストセットの平均F1スコア0.94に達した。
EXでは、いくつかのプロンプトは他のプロンプトよりも優れたパフォーマンスを示し、平均F1スコアは0.87である。
結論: この研究は, ChatGPT を用いたフリーテキスト医薬品文における NER および EX タスクの良好な性能を示すものである。
ゼロショットベースラインと比較して、数発のアプローチでは、システムは幻覚を防ぎ、安全関連医薬品データを処理する際には受け入れられない。
関連論文リスト
- Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - GPT-DETOX: An In-Context Learning-Based Paraphraser for Text Detoxification [1.8295720742100332]
GPT-3.5 Turbo を用いたテキストデトキシフィケーションのためのインテキスト・インテキスト・ラーニングのためのフレームワークとして GPT-DETOX を提案する。
単語マッチング例選択(WMES)と文脈マッチング例選択(CMES)の2つの手法を提案する。
我々は、アンサンブルをゼロショットと数ショット設定によるベースプロンプトによって形作るアンサンブル・イン・コンテクスト・ラーニング(EICL)を考慮している。
論文 参考訳(メタデータ) (2024-04-03T20:35:36Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z) - Task formulation for Extracting Social Determinants of Health from
Clinical Narratives [0.0]
2022 n2c2 NLP Challengeは、臨床物語における健康の社会的決定要因の同定を提起した。
本稿では,この課題のために開発した3つのシステムについて述べるとともに,それぞれのシステムで使用される特徴的タスクの定式化について論じる。
論文 参考訳(メタデータ) (2023-01-26T20:00:54Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Improving Health Mentioning Classification of Tweets using Contrastive
Adversarial Training [6.586675643422952]
周辺単語による単語表現を学習し,テキスト中の絵文字を用いて分類結果の改善を支援する。
モデルの埋め込みを摂動することで逆例を生成し、クリーンで逆例のペアでモデルを訓練する。
実験では、BERT-Largeベースラインが1.0%、RoBERTa-Largeベースラインが0.6%、F1スコアが5.8%となっている。
論文 参考訳(メタデータ) (2022-03-03T18:20:51Z) - A Case Study on Pros and Cons of Regular Expression Detection and
Dependency Parsing for Negation Extraction from German Medical Documents.
Technical Report [2.2869267883760287]
ドイツ語で書かれた医学文書における情報抽出に関する研究について述べる。
我々は,大量のトリガをベースラインとして,NegEx正規表現アルゴリズムのバージョンを用いる。
同様の結果を得るのに、はるかに小さなトリガーセットが十分であることを示す。
論文 参考訳(メタデータ) (2021-05-20T12:21:09Z) - Multiple Sclerosis Severity Classification From Clinical Text [5.8335613930036265]
本報告では,MIMIC以外の臨床データに基づいてトレーニングした最初の公開トランスフォーマーモデルであるMS-BERTについて述べる。
次に、MS-BERTを用いて埋め込みを生成し、EDSSと関数サブスコアを予測する分類器MSBCを提案する。
最後に、Snorkelを用いてMSBCを他のモデルと組み合わせて、競合しないコンサルティングノートのスコアを生成する方法について検討する。
論文 参考訳(メタデータ) (2020-10-29T02:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。