論文の概要: High-Throughput Phenotyping of Clinical Text Using Large Language Models
- arxiv url: http://arxiv.org/abs/2408.01214v1
- Date: Fri, 2 Aug 2024 12:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 13:37:26.400733
- Title: High-Throughput Phenotyping of Clinical Text Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた臨床テキストの高調波フェノタイピング
- Authors: Daniel B. Hier, S. Ilyas Munzir, Anne Stahlfeld, Tayo Obafemi-Ajayi, Michael D. Carrithers,
- Abstract要約: GPT-4はGPT-3.5-Turboを上回り、識別、分類、正規化を行う。
GPT-4は複数の表現型タスクにまたがって高い性能と一般化性をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-throughput phenotyping automates the mapping of patient signs to standardized ontology concepts and is essential for precision medicine. This study evaluates the automation of phenotyping of clinical summaries from the Online Mendelian Inheritance in Man (OMIM) database using large language models. Due to their rich phenotype data, these summaries can be surrogates for physician notes. We conduct a performance comparison of GPT-4 and GPT-3.5-Turbo. Our results indicate that GPT-4 surpasses GPT-3.5-Turbo in identifying, categorizing, and normalizing signs, achieving concordance with manual annotators comparable to inter-rater agreement. Despite some limitations in sign normalization, the extensive pre-training of GPT-4 results in high performance and generalizability across several phenotyping tasks while obviating the need for manually annotated training data. Large language models are expected to be the dominant method for automating high-throughput phenotyping of clinical text.
- Abstract(参考訳): 高スループット表現型化は、患者サインの標準化されたオントロジー概念へのマッピングを自動化し、精密医療に必須である。
本研究では,大規模言語モデルを用いたオンラインMendelian Inheritance in Man (OMIM)データベースから臨床要約の表現の自動化について検討した。
豊かな表現型データのため、これらの要約は医師のメモの代理となる。
GPT-4とGPT-3.5-Turboの性能比較を行った。
その結果, GPT-4 は GPT-3.5-Turbo を超越し, 信号の識別, 分類, 正規化を行い, 文字間合意に匹敵する手動アノテータと一致した。
符号正規化のいくつかの制限にもかかわらず、GPT-4の広範囲な事前訓練は、手動で注釈付けされたトレーニングデータの必要性を回避しつつ、複数の表現型タスクのハイパフォーマンスと一般化性をもたらす。
大規模言語モデルが臨床テキストの高スループット表現型自動化の主流となることが期待されている。
関連論文リスト
- A Large Language Model Outperforms Other Computational Approaches to the High-Throughput Phenotyping of Physician Notes [0.0]
本研究では,3つの計算手法を高スループット表現型化と比較する。
生成AIを取り入れたLarge Language Model(LLM)、深層学習を利用した自然言語処理(NLP)アプローチ、単語ベクトルと機械学習を組み合わせたハイブリッドアプローチ。
GPT-4(Large Language Model)を実装するアプローチは優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-20T22:05:34Z) - High Throughput Phenotyping of Physician Notes with Large Language and
Hybrid NLP Models [0.0]
ディープ・フェノタイピング(Deep phenotyping)は、オントロジーの概念を用いた患者徴候と症状の詳細な記述である。
本研究では,大規模言語モデルとハイブリッドNLPモデルにより,医師のノートに高いスループットの表現性を持たせることができることを示す。
論文 参考訳(メタデータ) (2024-03-09T14:02:59Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - An evaluation of GPT models for phenotype concept recognition [0.4715973318447338]
臨床表現型および表現型アノテーションのためのGPT(Generative Pre-trained Transformer)モデルの性能について検討した。
その結果、適切な設定で、これらのモデルが芸術的パフォーマンスの状態を達成できることが示されている。
論文 参考訳(メタデータ) (2023-09-29T12:06:55Z) - Enhancing Phenotype Recognition in Clinical Notes Using Large Language
Models: PhenoBCBERT and PhenoGPT [11.20254354103518]
我々は,BERTモデルであるPhenoBCBERTとGPTモデルであるPhenoGPTの2種類のモデルを開発した。
我々は,HPOを特徴としない新規な表現型概念を含む,より表現型的な概念を抽出できることを発見した。
論文 参考訳(メタデータ) (2023-08-11T03:40:22Z) - Exploring the Trade-Offs: Unified Large Language Models vs Local
Fine-Tuned Models for Highly-Specific Radiology NLI Task [49.50140712943701]
NLIタスクにおけるChatGPT/GPT-4の性能評価を行い、タスク関連データサンプルに特化して微調整された他のモデルと比較する。
また,ChatGPT/GPT-4の推論能力について,様々な推論難易度を導入して総合的な調査を行った。
論文 参考訳(メタデータ) (2023-04-18T17:21:48Z) - GPT-4 Technical Report [116.90398195245983]
GPT-4は大規模なマルチモーダルモデルであり、画像やテキストの入力を受け取り、テキスト出力を生成することができる。
試験受験者の上位10%のスコアで模擬試験に合格するなど、さまざまな専門的、学術的なベンチマークで人間レベルのパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-03-15T17:15:04Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - News Summarization and Evaluation in the Era of GPT-3 [73.48220043216087]
GPT-3は,大規模な要約データセット上で訓練された微調整モデルと比較する。
我々は,GPT-3サマリーが圧倒的に好まれるだけでなく,タスク記述のみを用いることで,現実性に乏しいようなデータセット固有の問題に悩まされることも示している。
論文 参考訳(メタデータ) (2022-09-26T01:04:52Z) - Hybrid deep learning methods for phenotype prediction from clinical
notes [4.866431869728018]
本稿では,自然言語処理とディープラーニングモデルを用いて,患者表現型を自動的に抽出するハイブリッドモデルを提案する。
提案したハイブリッドモデルは,患者の退院報告における表現型を特定するために,ニューラル双方向シーケンスモデル(BiLSTMまたはBiGRU)と畳み込みニューラルネットワーク(CNN)に基づいている。
論文 参考訳(メタデータ) (2021-08-16T05:57:28Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。