論文の概要: Large Language Models are Zero-Shot Clinical Information Extractors
- arxiv url: http://arxiv.org/abs/2205.12689v1
- Date: Wed, 25 May 2022 11:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:51:18.375760
- Title: Large Language Models are Zero-Shot Clinical Information Extractors
- Title(参考訳): 大言語モデルはゼロショット臨床情報エクストラクタである
- Authors: Monica Agrawal, Stefan Hegselmann, Hunter Lang, Yoon Kim, David Sontag
- Abstract要約: GPT-3のような大規模言語モデルは,臨床テキストからゼロショット情報抽出において良好に機能することを示す。
これらのモデルを, (i) 概念の曖昧さ, (ii) 証拠抽出, (iii) コア参照解決, (iv) 概念抽出の多様なタスクのツールとして用いる方法を示す。
優れたパフォーマンスの鍵は、言語モデルからタスクのラベル空間にマッピングする単純なタスク固有のプログラムを使用することである。
- 参考スコア(独自算出の注目度): 15.907327589436965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that large language models, such as GPT-3, perform well at zero-shot
information extraction from clinical text despite not being trained
specifically for the clinical domain. We present several examples showing how
to use these models as tools for the diverse tasks of (i) concept
disambiguation, (ii) evidence extraction, (iii) coreference resolution, and
(iv) concept extraction, all on clinical text. The key to good performance is
the use of simple task-specific programs that map from the language model
outputs to the label space of the task. We refer to these programs as
resolvers, a generalization of the verbalizer, which defines a mapping between
output tokens and a discrete label space. We show in our examples that good
resolvers share common components (e.g., "safety checks" that ensure the
language model outputs faithfully match the input data), and that the common
patterns across tasks make resolvers lightweight and easy to create. To better
evaluate these systems, we also introduce two new datasets for benchmarking
zero-shot clinical information extraction based on manual relabeling of the
CASI dataset (Moon et al., 2014) with labels for new tasks. On the clinical
extraction tasks we studied, the GPT-3 + resolver systems significantly
outperform existing zero- and few-shot baselines.
- Abstract(参考訳): gpt-3などの大規模言語モデルは臨床領域に特化していないにもかかわらず,臨床テキストからのゼロショット情報抽出において良好に機能することを示す。
多様なタスクのツールとしてこれらのモデルをどう使うかを示すいくつかの例を示す。
(i)概念の曖昧さ
(ii)証拠抽出
(iii)共同参照解決、及び
(iv)概念抽出、すべて臨床テキストによる。
優れたパフォーマンスの鍵は、言語モデル出力からタスクのラベル空間にマップされる単純なタスク固有のプログラムを使用することです。
我々はこれらのプログラムを、出力トークンと離散ラベル空間の間のマッピングを定義する動詞化の一般化であるリゾルバと呼ぶ。
私たちの例では、優れたリゾルバが共通のコンポーネント(例えば、言語モデルが入力データに忠実にマッチするように出力する"セーフティチェック")を共有し、タスク間の共通パターンによってリゾルバが軽量で簡単に作成できることを示しています。
これらのシステムを評価するために,CASIデータセット(Moon et al., 2014)を新たなタスクのラベル付きで手動でラベル付けすることで,ゼロショット臨床情報抽出のベンチマークを行う2つの新しいデータセットを導入する。
検討した臨床抽出タスクにおいて,gpt-3 + resolverシステムは,既存のゼロショットおよび少数ショットベースラインを大きく上回っている。
関連論文リスト
- Infusing clinical knowledge into tokenisers for language models [1.9921590146992474]
本研究はクリニカルテキスト処理のための新しい知識強化トークン化機構であるK-Tokeniserを紹介する。
初期化段階では、K-Tokeniserはドメイン概念の意味型に基づいてトークンのグローバル表現をポップアップさせる。
新しいトークンを用いた事前学習を避けるため,新しいトークンの表現を生成するために埋め込み初期化手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T13:43:03Z) - Probing Representations for Document-level Event Extraction [30.523959637364484]
この研究は、文書レベルの情報抽出で学んだ表現に探索パラダイムを適用した最初のものである。
文書レベルのイベント抽出に関連するサーフェス,セマンティクス,イベント理解機能を分析するために,8つの埋め込みプローブを設計した。
これらのモデルからトレーニングされたエンコーダは、わずかに引数の検出とラベリングを改善することができるが、イベントレベルのタスクをわずかに強化するだけである。
論文 参考訳(メタデータ) (2023-10-23T19:33:04Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Development and validation of a natural language processing algorithm to
pseudonymize documents in the context of a clinical data warehouse [53.797797404164946]
この研究は、この領域でツールやリソースを共有する際に直面する困難を浮き彫りにしている。
臨床文献のコーパスを12種類に分類した。
私たちは、ディープラーニングモデルと手動ルールの結果をマージして、ハイブリッドシステムを構築します。
論文 参考訳(メタデータ) (2023-03-23T17:17:46Z) - Open-Vocabulary Object Detection using Pseudo Caption Labels [3.260777306556596]
よりきめ細かいラベルは、新しいオブジェクトに関するより豊かな知識を引き出すために必要である、と我々は主張する。
分離されたVisualGenomeデータセットでトレーニングされた最良のモデルは、APが34.5、APrが30.6で、最先端のパフォーマンスに匹敵する。
論文 参考訳(メタデータ) (2023-03-23T05:10:22Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - Finding Dataset Shortcuts with Grammar Induction [85.47127659108637]
我々は,NLPデータセットのショートカットの特徴付けと発見に確率文法を用いることを提案する。
具体的には、文脈自由文法を用いて文分類データセットのパターンをモデル化し、同期文脈自由文法を用いて文ペアを含むデータセットをモデル化する。
その結果得られた文法は、単純かつ高レベルの機能を含む、多くのデータセットで興味深いショートカット機能を示す。
論文 参考訳(メタデータ) (2022-10-20T19:54:11Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment [46.51685959045527]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
論文 参考訳(メタデータ) (2020-12-28T16:02:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。