論文の概要: Chain-of-Though (CoT) prompting strategies for medical error detection and correction
- arxiv url: http://arxiv.org/abs/2406.09103v1
- Date: Thu, 13 Jun 2024 13:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-14 17:44:14.915830
- Title: Chain-of-Though (CoT) prompting strategies for medical error detection and correction
- Title(参考訳): CoT(Chain-of-Though)の医療的誤り検出・修正戦略
- Authors: Zhaolong Wu, Abul Hasan, Jinge Wu, Yunsoo Kim, Jason P. Y. Cheung, Teng Zhang, Honghan Wu,
- Abstract要約: 本稿では,MEDIQA-CORR 2024共有課題に対する臨床ノートにおける医療ミスの自動検出と修正について述べる。
大型言語モデル(LLM)を用いたChain-of-Thought(CoT)と理性プロンプトを併用した複数ショットインコンテクスト学習の3つの手法の成果を報告する。
我々のアンサンブル法は,サブタスクのランキングを3位とし,サブタスク3の7位を確保した。
- 参考スコア(独自算出の注目度): 5.756731172979317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our submission to the MEDIQA-CORR 2024 shared task for automatically detecting and correcting medical errors in clinical notes. We report results for three methods of few-shot In-Context Learning (ICL) augmented with Chain-of-Thought (CoT) and reason prompts using a large language model (LLM). In the first method, we manually analyse a subset of train and validation dataset to infer three CoT prompts by examining error types in the clinical notes. In the second method, we utilise the training dataset to prompt the LLM to deduce reasons about their correctness or incorrectness. The constructed CoTs and reasons are then augmented with ICL examples to solve the tasks of error detection, span identification, and error correction. Finally, we combine the two methods using a rule-based ensemble method. Across the three sub-tasks, our ensemble method achieves a ranking of 3rd for both sub-task 1 and 2, while securing 7th place in sub-task 3 among all submissions.
- Abstract(参考訳): 本稿では,MEDIQA-CORR 2024共有課題に対する臨床ノートにおける医療ミスの自動検出と修正について述べる。
本報告では,Chain-of-Thought (CoT) を付加したマイクロショット・インコンテキスト・ラーニング (ICL) と,大規模言語モデル (LLM) を用いた推論の3つの手法について報告する。
第1の手法では,手動で列車と検証データセットのサブセットを分析し,臨床ノートのエラータイプを調べて3つのCoTプロンプトを推定する。
第2の手法では、トレーニングデータセットを利用してLCMにそれらの正確さや誤りの理由を推測する。
構築されたCoTと理由はICLの例で拡張され、エラー検出、スパン識別、エラー訂正のタスクが解決される。
最後に,ルールに基づくアンサンブル法を用いて2つの手法を組み合わせる。
3つのサブタスク全体で、我々のアンサンブル法はサブタスク1と2の両方で3位を獲得し、サブタスク3では7位を確保している。
関連論文リスト
- Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - PromptMind Team at MEDIQA-CORR 2024: Improving Clinical Text Correction with Error Categorization and LLM Ensembles [0.0]
本稿では,医療従事者による臨床ノートの誤り検出と修正を含むMEDIQA-CORR共有タスクへのアプローチについて述べる。
我々は,事実情報と信頼できない情報の両方を含む膨大なインターネットデータのコーパスに基づいて訓練された大規模言語モデルの能力を評価することを目的としている。
論文 参考訳(メタデータ) (2024-05-14T07:16:36Z) - WangLab at MEDIQA-CORR 2024: Optimized LLM-based Programs for Medical Error Detection and Correction [5.7931394318054155]
3つのサブタスクすべてでトップパフォーマンスを達成したアプローチを提示する。
微妙な誤りを含むMSデータセットに対して,検索に基づくシステムを開発した。
UWデータセットでは、より現実的な臨床ノートを反映して、エラーを検出し、ローカライズし、修正するためのモジュールのパイプラインを作成しました。
論文 参考訳(メタデータ) (2024-04-22T19:31:45Z) - Continual learning for surface defect segmentation by subnetwork
creation and selection [55.2480439325792]
破滅的な忘れを伴わずにセグメンテーションタスクを実行する,新たな連続的(あるいは寿命の長い)学習アルゴリズムを導入する。
この方法は、2つの異なる表面欠陥分割問題に適用され、漸進的に学習される。
当社のアプローチでは,すべてのトレーニングデータ(すべての欠陥)を同時に見る場合,共同トレーニングと同等の結果が得られます。
論文 参考訳(メタデータ) (2023-12-08T15:28:50Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z) - Learning to Learn with Indispensable Connections [6.040904021861969]
本稿では,メタ-LTHと呼ばれるメタ-LTHと呼ばれるメタ-ラーニング手法を提案する。
本手法は,オムニグロットデータセットの分類精度を約2%向上させる。
論文 参考訳(メタデータ) (2023-04-06T04:53:13Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Three approaches to supervised learning for compositional data with
pairwise logratios [0.0]
構成データ分析の一般的なアプローチは、対数によるデータ変換である。
構成部品の対(対対対対)の対は、多くの研究問題において最も容易に解釈できる。
一般化線形モデルにおいて、従属変数を最もよく説明できるペアワイズ対数を選択するために、段階的に教師付き学習法を3つ提案する。
論文 参考訳(メタデータ) (2021-11-17T07:51:20Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Exploration and Exploitation: Two Ways to Improve Chinese Spelling
Correction Models [51.744357472072416]
本稿では,モデルの弱点を継続的に識別し,より価値の高いトレーニングインスタンスを生成する手法を提案する。
実験結果から, 事前学習戦略と組み合わさって, 複数のCSCモデルの一般化とロバスト性を改善することができることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。