論文の概要: LLM, Reporting In! Medical Information Extraction Across Prompting, Fine-tuning and Post-correction
- arxiv url: http://arxiv.org/abs/2510.03577v1
- Date: Fri, 03 Oct 2025 23:59:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.127642
- Title: LLM, Reporting In! Medical Information Extraction Across Prompting, Fine-tuning and Post-correction
- Title(参考訳): LLM, Reporting In! プロンプト, 微調整, 術後の医療情報抽出
- Authors: Ikram Belmadani, Parisa Nazari Hashemi, Thomas Sebbag, Benoit Favre, Guillaume Fortier, Solen Quiniou, Emmanuel Morin, Richard Dufour,
- Abstract要約: 本研究は,バイオメディカル名称認識(NER)とフランス語における健康イベント抽出に関するEvalLLM 2025チャレンジへの参加を示す。
NERでは,大規模言語モデル(LLM),ガイドラインガイドライン,合成データ,後処理を組み合わせた3つのアプローチを提案する。
GPT-4.1はNERが61.53%、イベント抽出が15.02%である。
- 参考スコア(独自算出の注目度): 6.180091953616749
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work presents our participation in the EvalLLM 2025 challenge on biomedical Named Entity Recognition (NER) and health event extraction in French (few-shot setting). For NER, we propose three approaches combining large language models (LLMs), annotation guidelines, synthetic data, and post-processing: (1) in-context learning (ICL) with GPT-4.1, incorporating automatic selection of 10 examples and a summary of the annotation guidelines into the prompt, (2) the universal NER system GLiNER, fine-tuned on a synthetic corpus and then verified by an LLM in post-processing, and (3) the open LLM LLaMA-3.1-8B-Instruct, fine-tuned on the same synthetic corpus. Event extraction uses the same ICL strategy with GPT-4.1, reusing the guideline summary in the prompt. Results show GPT-4.1 leads with a macro-F1 of 61.53% for NER and 15.02% for event extraction, highlighting the importance of well-crafted prompting to maximize performance in very low-resource scenarios.
- Abstract(参考訳): 本研究は,バイオメディカル名称認識(NER)におけるEvalLLM 2025チャレンジへの参加と,フランス語での健康イベント抽出(フェーショットセッティング)について紹介する。
NER では,大規模言語モデル (LLM) , アノテーションガイドライン, 合成データ, 後処理の3つのアプローチを提案する。(1) テキスト内学習 (ICL) と GPT-4.1 を併用し, 10 例の自動選択とアノテーションガイドラインの要約をプロンプトに組み込む,(2) 汎用の NER システム GLiNER を合成コーパスで微調整し, 後処理で LLM で検証する,(3) オープン LLM LLaMA-3.1-8B インストラクトを同一合成コーパスで微調整する。
イベント抽出は GPT-4.1 と同じ ICL 戦略を使用しており、プロンプトのガイドラインの要約を再利用している。
GPT-4.1は、NERで61.53%、イベント抽出で15.02%のマクロF1のリードを示し、非常に低リソースのシナリオでパフォーマンスを最大化するために、巧妙なプロンプトの重要性を強調した。
関連論文リスト
- Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - Retrieval-Enhanced Few-Shot Prompting for Speech Event Extraction [0.0]
音声イベント抽出(SpeechEE)は、音声認識(ASR)と自然言語処理(NLP)の交差点に位置する課題である。
本稿では,Large Language Models (LLM) のセマンティック検索強化プロンプトと高性能ASRを統合したモジュール型パイプラインベースのSpeechEEフレームワークを提案する。
この結果から,LLMに強化されたパイプラインアプローチは,エンド・ツー・エンドのシステムに匹敵する,あるいは超越できることを示した。
論文 参考訳(メタデータ) (2025-04-30T07:10:10Z) - Towards Event Extraction with Massive Types: LLM-based Collaborative Annotation and Partitioning Extraction [66.73721939417507]
大規模言語モデル(LLM)に基づく協調アノテーション手法を提案する。
また, LLM-PEE と呼ばれる LLM-based Partitioning EE 法を提案する。
その結果,LLM-PEEは事象検出では5.4,引数抽出では6.1,最先端手法では6.1に優れていた。
論文 参考訳(メタデータ) (2025-03-04T13:53:43Z) - QUAD-LLM-MLTC: Large Language Models Ensemble Learning for Healthcare Text Multi-Label Classification [4.8342038441006805]
収集された医療用テキストデータのエスカレート量は、テキスト分類を自動化する上でユニークな課題である。
従来の機械学習モデルは、表現されたトピックの配列を完全にキャプチャできないことが多い。
大規模言語モデル(LLM)は多くの自然言語処理(NLP)タスクにおいて顕著な効果を示した。
論文 参考訳(メタデータ) (2025-02-20T01:46:12Z) - MedSlice: Fine-Tuned Large Language Models for Secure Clinical Note Sectioning [2.4060718165478376]
微調整のオープンソース LLM は、臨床ノートのセクションリングにおいて独自のモデルを上回ることができる。
本研究は,現在病歴,インターバル歴史,アセスメント・アンド・プランの3つのセクションに焦点をあてる。
論文 参考訳(メタデータ) (2025-01-23T21:32:09Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Instances Need More Care: Rewriting Prompts for Instances with LLMs in the Loop Yields Better Zero-Shot Performance [11.595274304409937]
大規模言語モデル(LLM)はゼロショットタスクのパフォーマンスに革命をもたらした。
レッツ・シンク・バイ・ステップ(Let's Think by Step)」のようなトリガーフレーズを使った現在の手法は依然として限られている。
本研究では,タスクインスタンスのゼロショットプロンプトを最適化するPRomPTedを導入する。
論文 参考訳(メタデータ) (2023-10-03T14:51:34Z) - Zero-Shot Cross-Lingual Summarization via Large Language Models [108.30673793281987]
言語間要約(CLS)は、異なる対象言語で要約を生成する。
近年のLarge Language Models (LLMs) の出現は、計算言語学コミュニティから広く注目を集めている。
本稿では,異なるパラダイムからゼロショットCLSを実行するために,LSMを誘導するために様々なプロンプトを経験的に使用した。
論文 参考訳(メタデータ) (2023-02-28T01:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。