論文の概要: Importance of Prompt Optimisation for Error Detection in Medical Notes Using Language Models
- arxiv url: http://arxiv.org/abs/2602.22483v1
- Date: Wed, 25 Feb 2026 23:46:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.448532
- Title: Importance of Prompt Optimisation for Error Detection in Medical Notes Using Language Models
- Title(参考訳): 言語モデルを用いた医療用ノートの誤り検出におけるプロンプト最適化の重要性
- Authors: Craig Myles, Patrick Schrempf, David Harris-Birtill,
- Abstract要約: 誤り検出のタスクに適用する場合,小・大言語モデルに対する迅速な最適化の重要性を示す。
本稿では,GEPAによる自動プロンプト最適化により,ベースライン精度よりも誤差検出が向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Errors in medical text can cause delays or even result in incorrect treatment for patients. Recently, language models have shown promise in their ability to automatically detect errors in medical text, an ability that has the opportunity to significantly benefit healthcare systems. In this paper, we explore the importance of prompt optimisation for small and large language models when applied to the task of error detection. We perform rigorous experiments and analysis across frontier language models and open-source language models. We show that automatic prompt optimisation with Genetic-Pareto (GEPA) improves error detection over the baseline accuracy performance from 0.669 to 0.785 with GPT-5 and 0.578 to 0.690 with Qwen3-32B, approaching the performance of medical doctors and achieving state-of-the-art performance on the MEDEC benchmark dataset. Code available on GitHub: https://github.com/CraigMyles/clinical-note-error-detection
- Abstract(参考訳): 医療用テキストの誤りは遅延を引き起こしたり、患者に誤った治療を与えることがある。
近年,医療用テキストの誤りを自動的に検出する能力は,医療システムに多大な利益をもたらすことが期待されている。
本稿では,誤り検出タスクに適用した場合の,小・大規模言語モデルの迅速な最適化の重要性について検討する。
我々は、フロンティア言語モデルとオープンソース言語モデルにまたがる厳密な実験と分析を行う。
我々は,GEPAによる自動プロンプト最適化により,GPT-5による0.669から0.785,Qwen3-32Bによる0.578から0.690の誤差検出が向上し,医師の成績に近づき,MEDECベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
GitHubで利用可能なコード: https://github.com/CraigMyles/clinical-note-error-detection
関連論文リスト
- CURE: Curriculum-guided Multi-task Training for Reliable Anatomy Grounded Report Generation [46.0800756149113]
CUREは医療ビジョン言語モデルのためのエラー対応カリキュラム学習フレームワークである。
フレーズ接地、接地レポート生成、解剖学的接地レポート生成に関するマルチモーダル指導モデルを微調整する。
CUREは接地精度を+0.37 IoUで改善し、レポート品質を+0.188 CXRFEScoreで改善し、幻覚を18.6%減らす。
論文 参考訳(メタデータ) (2026-01-21T19:19:41Z) - A DeepSeek-Powered AI System for Automated Chest Radiograph Interpretation in Clinical Practice [83.11942224668127]
Janus-Pro-CXR (1B) はDeepSeek Janus-Proモデルに基づく胸部X線解釈システムである。
本システムは, 自動レポート生成において, 最先端のX線レポート生成モデルより優れる。
論文 参考訳(メタデータ) (2025-12-23T13:26:13Z) - A Systematic Analysis of Large Language Models with RAG-enabled Dynamic Prompting for Medical Error Detection and Correction [8.312687115594512]
我々は、ゼロショットプロンプト、ランダムな例による静的プロンプト、検索強化された動的プロンプトを評価する。
精度,リコール,偽陽性率 (FPR) , ROUGE-1, BLEURT, BERTScore を用いて誤差補正を行った。
論文 参考訳(メタデータ) (2025-11-25T02:40:49Z) - MedRECT: A Medical Reasoning Benchmark for Error Correction in Clinical Texts [0.0]
大規模言語モデル (LLM) は医療応用における将来性を示すが, 臨床用テキストにおける誤りの検出と訂正能力は, 未評価のままである。
我々は,医療ミス処理を3つのサブタスクとして定式化する言語間ベンチマーク(日本語/英語)であるMedRECTを紹介する。
プロプライエタリ、オープンウェイト、理性家族にまたがる9つの現代LSMを評価した。
論文 参考訳(メタデータ) (2025-11-01T06:19:34Z) - Towards Automated Error Discovery: A Study in Conversational AI [48.735443116662026]
本稿では,会話型AIにおけるエラーの検出と定義のためのフレームワークであるAutomated Error Discoveryを紹介する。
また,その実装に対するエンコーダに基づくアプローチとして,SEEED(Soft Clustering Extended-Based Error Detection)を提案する。
論文 参考訳(メタデータ) (2025-09-13T14:53:22Z) - Arabic Large Language Models for Medical Text Generation [0.5483130283061118]
本研究では,アラビア語医療用テキスト生成のための大規模言語モデル(LLM)を提案する。
このシステムは、正確な医療アドバイス、診断、薬物レコメンデーション、およびユーザ入力に基づく治療計画を提供することによって、患者を支援するように設計されている。
論文 参考訳(メタデータ) (2025-09-12T09:37:26Z) - Leveraging Language Models for Automated Patient Record Linkage [0.5461938536945723]
本研究では,言語モデルを用いた患者記録自動リンクの実現可能性について検討した。
我々はミズーリ癌登録研究センターの実際の医療データを活用している。
論文 参考訳(メタデータ) (2025-04-21T17:41:15Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。