論文の概要: The Evolving Landscape of Generative Large Language Models and Traditional Natural Language Processing in Medicine
- arxiv url: http://arxiv.org/abs/2505.10261v1
- Date: Thu, 15 May 2025 13:11:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.322852
- Title: The Evolving Landscape of Generative Large Language Models and Traditional Natural Language Processing in Medicine
- Title(参考訳): 創発的大規模言語モデルの景観形成と医学における伝統自然言語処理
- Authors: Rui Yang, Huitao Li, Matthew Yu Heng Wong, Yuhe Ke, Xin Li, Kunyu Yu, Jingchi Liao, Jonathan Chong Kai Liew, Sabarinath Vinod Nair, Jasmine Chiat Ling Ong, Irene Li, Douglas Teodoro, Chuan Hong, Daniel Shu Wei Ting, Nan Liu,
- Abstract要約: 生成型大規模言語モデル (LLMs) は近年注目されているが, 異なる医療課題間での差異は未解明のままである。
従来のNLPが情報抽出・分析タスクで優位であるのに対し, 生成LDMはオープンエンドタスクで優位性を示すことがわかった。
- 参考スコア(独自算出の注目度): 11.237277421599027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language processing (NLP) has been traditionally applied to medicine, and generative large language models (LLMs) have become prominent recently. However, the differences between them across different medical tasks remain underexplored. We analyzed 19,123 studies, finding that generative LLMs demonstrate advantages in open-ended tasks, while traditional NLP dominates in information extraction and analysis tasks. As these technologies advance, ethical use of them is essential to ensure their potential in medical applications.
- Abstract(参考訳): 自然言語処理 (NLP) は伝統的に医学に応用され, 生成型大規模言語モデル (LLM) が近年注目されている。
しかし、異なる医療課題の相違は未解明のままである。
従来のNLPが情報抽出・分析タスクで優位であるのに対し, 生成LDMはオープンエンドタスクで優位性を示すことがわかった。
これらの技術が進歩するにつれて、それらの倫理的利用は医療応用における可能性を保証するために不可欠である。
関連論文リスト
- Large language models for mental health [10.592145325363266]
デジタル技術は、精神医学研究や実践における標準的な手順の補完として長い間研究されてきた。
最近の大規模言語モデル(LLM)の出現は、その面での大きな新たなチャンスである。
しかし、LLMを開発するコミュニティと、それらから恩恵を受ける可能性のあるコミュニティとの間には、いまだに隔たりがある。
論文 参考訳(メタデータ) (2024-11-04T14:02:00Z) - Retrieve, Generate, Evaluate: A Case Study for Medical Paraphrases Generation with Small Language Models [2.4851820343103035]
SLM(Small Language Models)を用いた検索用拡張生成パイプラインpRAGeと医用パラフレーズ生成の評価について紹介する。
フランスの医療パラフレーズ生成におけるSLMの有効性と外部知識ベースの影響について検討した。
論文 参考訳(メタデータ) (2024-07-23T15:17:11Z) - Can Large Language Models abstract Medical Coded Language? [0.0]
大規模言語モデル(LLM)は医療コードを認識しており、これらのコードから正確に名前を生成することができる。
本研究は,大規模言語モデル(LLM)が医療コードを認識し,それらのコードから正確に名前を生成することができるかどうかを評価する。
論文 参考訳(メタデータ) (2024-03-16T06:18:15Z) - History, Development, and Principles of Large Language Models-An Introductory Survey [15.875687167037206]
自然言語処理(NLP)の基盤となる言語モデル
数十年にわたる広範な研究を経て、言語モデリングは、初期統計言語モデル(SLM)から、大規模言語モデル(LLM)の現代的景観へと進歩してきた。
論文 参考訳(メタデータ) (2024-02-10T01:18:15Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Evaluating Large Language Models for Radiology Natural Language
Processing [68.98847776913381]
大規模言語モデル(LLM)の台頭は、自然言語処理(NLP)分野における重要な転換点となっている。
本研究は, 放射線学報告の解釈において, 30 個の LLM を批判的に評価することにより, このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-07-25T17:57:18Z) - Language Models sounds the Death Knell of Knowledge Graphs [0.0]
ディープラーニングに基づくNLP、特にLarge Language Models(LLM)は広く受け入れられており、多くのアプリケーションで広く使われている。
BioBERTとMed-BERTは医療分野向けに事前訓練された言語モデルである。
本稿では、知識グラフを用いることは、この領域の問題を解決する最善の解決策ではない、と論じる。
論文 参考訳(メタデータ) (2023-01-10T14:20:15Z) - Pre-trained Language Models in Biomedical Domain: A Systematic Survey [33.572502204216256]
プレトレーニング言語モデル(PLM)は、ほとんどの自然言語処理(NLP)タスクのデファクトパラダイムである。
本稿では,生物医学領域における事前学習言語モデルの最近の進歩とその生物医学的下流タスクへの応用について要約する。
論文 参考訳(メタデータ) (2021-10-11T05:30:30Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。