論文の概要: ELM: Ensemble of Language Models for Predicting Tumor Group from Pathology Reports
- arxiv url: http://arxiv.org/abs/2503.21800v1
- Date: Mon, 24 Mar 2025 19:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:32:57.874014
- Title: ELM: Ensemble of Language Models for Predicting Tumor Group from Pathology Reports
- Title(参考訳): ELM:腫瘍群予測のための言語モデルの構築
- Authors: Lovedeep Gondara, Jonathan Simkin, Shebnum Devji, Gregory Arbour, Raymond Ng,
- Abstract要約: 人口ベースがん登録所(PBCR)は、非構造的病理報告から手動でデータを抽出する際、重大なボトルネックに直面している。
我々は,小言語モデル (SLM) と大言語モデル (LLM) の両方を活用する,新しいアンサンブルベースのアプローチであるEMMを紹介する。
ELMは0.94の平均精度とリコールを達成し、シングルモデルとアンサンブルを伴わないアプローチより優れている。
- 参考スコア(独自算出の注目度): 2.0447192404937353
- License:
- Abstract: Population-based cancer registries (PBCRs) face a significant bottleneck in manually extracting data from unstructured pathology reports, a process crucial for tasks like tumor group assignment, which can consume 900 person-hours for approximately 100,000 reports. To address this, we introduce ELM (Ensemble of Language Models), a novel ensemble-based approach leveraging both small language models (SLMs) and large language models (LLMs). ELM utilizes six fine-tuned SLMs, where three SLMs use the top part of the pathology report and three SLMs use the bottom part. This is done to maximize report coverage. ELM requires five-out-of-six agreement for a tumor group classification. Disagreements are arbitrated by an LLM with a carefully curated prompt. Our evaluation across nineteen tumor groups demonstrates ELM achieves an average precision and recall of 0.94, outperforming single-model and ensemble-without-LLM approaches. Deployed at the British Columbia Cancer Registry, ELM demonstrates how LLMs can be successfully applied in a PBCR setting to achieve state-of-the-art results and significantly enhance operational efficiencies, saving hundreds of person-hours annually.
- Abstract(参考訳): 人口ベースがん登録所(PBCR)は、構造化されていない病理報告から手動でデータを抽出する際、重大なボトルネックに直面している。
そこで我々は,小型言語モデル (SLM) と大規模言語モデル (LLM) の両面を活用した,新しいアンサンブルベースのアプローチであるELM (Ensemble of Language Models) を導入する。
ELMは6つの微調整されたSLMを使用し、3つのSLMは病理報告の上部を使用し、3つのSLMは下部を使用する。
これはレポートのカバレッジを最大化するためです。
ELMは腫瘍群分類に5対6の合意を必要とする。
分解は、慎重にキュレートされたプロンプトでLSMによって調停される。
19の腫瘍群で評価したところ,ERMは0.94の精度とリコールを達成し,シングルモデルおよびアンサンブル非LLM法より優れていた。
ブリティッシュコロンビア癌登録簿(British Columbia Cancer Registry)にデプロイされたEDMは、PBCR設定でLCMをうまく適用し、最先端の結果を達成し、運用効率を大幅に向上させ、年間数百人の人的時間を節約できることを示した。
関連論文リスト
- Evaluating The Performance of Using Large Language Models to Automate Summarization of CT Simulation Orders in Radiation Oncology [3.0048953993445586]
本研究の目的は,大規模言語モデル(LLM)を用いて,CTシミュレーションの順序から要約を生成することである。
ローカルにホストされたLlama 3.1 405Bモデルを使用して、CTシミュレーションの順序からキーワードを抽出し、要約を生成する。
LLM生成サマリーの精度は, 基礎事実を基準として, セラピストによって評価された。
論文 参考訳(メタデータ) (2025-01-27T18:47:58Z) - Can open source large language models be used for tumor documentation in Germany? -- An evaluation on urological doctors' notes [0.13234804008819082]
この評価は、腫瘍ドキュメンテーションプロセスの3つの基本的なタスクについて、11の異なるオープンソース言語モデル(LLM)をテストする。
モデルLlama 3.1 8B、Mistral 7B、Mistral NeMo 12Bはタスクにおいて相容れない性能を発揮した。
論文 参考訳(メタデータ) (2025-01-21T12:56:47Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Evaluating Large Language Models for Public Health Classification and Extraction Tasks [0.3545046504280562]
本稿では,自由テキストの分類と抽出を含む公衆衛生業務におけるLarge Language Models(LLMs)の評価について述べる。
ゼロショット・イン・コンテクスト学習を用いて,全タスクにまたがるオープンウェイトLLMを11個評価した。
LLMが公衆衛生の専門家にとって、様々な無料テキストソースから情報を抽出するのに有用なツールであることを示す有望な兆候を見出した。
論文 参考訳(メタデータ) (2024-05-23T16:33:18Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Using Natural Language Explanations to Improve Robustness of In-context Learning [35.18010811754959]
大規模言語モデル(LLM)は、文脈内学習(ICL)を通じて多くのタスクを抽出できる
自然言語説明法(NLE)によるICLの強化は,敵対的データセット上でのLLMの堅牢性を向上させるかを検討する。
論文 参考訳(メタデータ) (2023-11-13T18:49:13Z) - Summarization is (Almost) Dead [49.360752383801305]
我々は,大規模言語モデル(LLM)のゼロショット生成能力を評価するため,新しいデータセットを開発し,人間による評価実験を行う。
本研究は, 微調整モデルにより生成した要約や要約よりも, LLM生成要約に対する人間の評価において, 明らかな優位性を示した。
論文 参考訳(メタデータ) (2023-09-18T08:13:01Z) - Local Large Language Models for Complex Structured Medical Tasks [0.0]
本稿では,大規模言語モデルの言語推論機能と,複雑なドメイン特化タスクに取り組むための局所学習の利点を組み合わせたアプローチを提案する。
具体的には,病理報告から構造化条件コードを抽出し,そのアプローチを実証する。
論文 参考訳(メタデータ) (2023-08-03T12:36:13Z) - Zero-Shot Cross-Lingual Summarization via Large Language Models [108.30673793281987]
言語間要約(CLS)は、異なる対象言語で要約を生成する。
近年のLarge Language Models (LLMs) の出現は、計算言語学コミュニティから広く注目を集めている。
本稿では,異なるパラダイムからゼロショットCLSを実行するために,LSMを誘導するために様々なプロンプトを経験的に使用した。
論文 参考訳(メタデータ) (2023-02-28T01:27:37Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。