論文の概要: A Survey of Large Language Models in Medicine: Principles, Applications,
and Challenges
- arxiv url: http://arxiv.org/abs/2311.05112v3
- Date: Fri, 2 Feb 2024 06:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 19:14:35.316744
- Title: A Survey of Large Language Models in Medicine: Principles, Applications,
and Challenges
- Title(参考訳): 医学における大規模言語モデルの実態調査 : 原則,応用,課題
- Authors: Hongjian Zhou, Fenglin Liu, Boyang Gu, Xinyu Zou, Jinfa Huang, Jinge
Wu, Yiru Li, Sam S. Chen, Peilin Zhou, Junling Liu, Yining Hua, Chengfeng
Mao, Chenyu You, Xian Wu, Yefeng Zheng, Lei Clifton, Zheng Li, Jiebo Luo,
David A. Clifton
- Abstract要約: 大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
このレビューでは、医学におけるLSMが直面する原則、応用、課題について概観する。
- 参考スコア(独自算出の注目度): 86.4234483148876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs), such as ChatGPT, have received substantial
attention due to their capabilities for understanding and generating human
language. LLMs in medicine to assist physicians for patient care are emerging
as a promising research direction in both artificial intelligence and clinical
medicine. This review provides a comprehensive overview of the principles,
applications, and challenges faced by LLMs in medicine. We address the
following specific questions: 1) How should medical LLMs be built? 2) What are
the measures for the downstream performance of medical LLMs? 3) How should
medical LLMs be utilized in real-world clinical practice? 4) What challenges
arise from the use of medical LLMs? and 5) How should we better construct and
utilize medical LLMs? This review aims to provide insights into the
opportunities and challenges of LLMs in medicine, and serve as a practical
resource for constructing effective medical LLMs. We also maintain and
regularly updated list of practical guides on medical LLMs at
https://github.com/AI-in-Health/MedLLMsPracticalGuide.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、人間の言語を理解して生成する能力のために、かなりの注目を集めている。
患者ケアのための医師を支援する医学におけるllmsは、人工知能と臨床医学の両方において有望な研究の方向性として浮上している。
このレビューでは、医学におけるLSMが直面する原則、応用、課題について概観する。
我々は以下の質問に対処する。
1)医療用LLMの作り方
2)医療用llmのダウンストリームパフォーマンスに対する対策はどのようなものか?
3) 医療用LCMを実地臨床にどのように活用するか
4) 医療用LSMの使用による課題は何か。
そして
5)医療用LLMの構築と活用について
本総説は、医学におけるLLMの機会と課題に関する洞察を提供することを目標とし、効果的なLLMを構築するための実践的資源として機能することを目的とする。
また、医療用LCMの実践的ガイドをhttps://github.com/AI-in-Health/MedLLMsPracticalGuideで定期的に更新している。
関連論文リスト
- Do Large Language Models understand Medical Codes? [0.0]
大規模言語モデル(LLM)は、幅広いタスクを支援することで、臨床実践に大きな利益をもたらすことができる。
しかし、これらのモデルは、適切な対処ができないクエリに直面した時に、幻覚や誤った応答を生成する傾向がある。
論文 参考訳(メタデータ) (2024-03-16T06:18:15Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - MedBench: A Large-Scale Chinese Benchmark for Evaluating Medical Large
Language Models [56.36916128631784]
中国の医療分野の総合的なベンチマークであるMedBenchを紹介する。
このベンチマークは、中国の医療ライセンス試験、居住者標準化訓練試験、および現実世界のクリニックの4つの主要なコンポーネントで構成されている。
幅広い実験を行い, 多様な視点から詳細な分析を行い, 以下の結果を得た。
論文 参考訳(メタデータ) (2023-12-20T07:01:49Z) - Large language models in healthcare and medical domain: A review [5.264460964718939]
大規模言語モデル(LLM)は、自由テキストクエリに対する熟練した応答を提供する。
このレビューでは、多様な医療応用の効率性と効果を増幅するLLMの可能性について考察する。
論文 参考訳(メタデータ) (2023-12-12T20:54:51Z) - From Beginner to Expert: Modeling Medical Knowledge into General LLMs [22.475129648458136]
大規模言語モデル(LLM)に基づく人工知能(AI)システムは、自然言語の理解と生成において顕著な能力を示した。
これらのモデルは、医学的な知識を推論したり、医師のような方法で医学的な疑問に答えたりするといった、繊細な応用に関して重要な課題に直面している。
本研究は、事前訓練された一般LLMモデル(AntGLM-10B)から始まり、医療初心者から医療専門家(AntGLM-Med-10B)に微調整する。
論文 参考訳(メタデータ) (2023-12-02T05:54:06Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training
Regime and Better Alignment to Human Preferences [55.42521181558716]
中国医学領域向けに設計された新しいベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、コンテキスト長を4,096トークンに拡大し、事前トレーニング、SFT、RLHFを含む総合的なトレーニング体制を実行している。
情報抽出,質問応答,対話生成などの実世界のタスクの評価は,一般的なドメインLLMよりもChiMed-GPTの方が優れた性能を示している。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - Large Language Models Illuminate a Progressive Pathway to Artificial
Healthcare Assistant: A Review [16.008511195589925]
大規模言語モデル(LLM)は、人間のレベルの言語理解と推論を模倣する有望な能力を示している。
本稿では,医学におけるLSMの応用と意義について概説する。
論文 参考訳(メタデータ) (2023-11-03T13:51:36Z) - Augmenting Black-box LLMs with Medical Textbooks for Clinical Question
Answering [54.13933019557655]
LLMs Augmented with Medical Textbooks (LLM-AMT)を提案する。
LLM-AMTは、プラグイン・アンド・プレイモジュールを使用して、権威ある医学教科書をLLMのフレームワークに統合する。
検索コーパスとしての医学教科書は,医学領域におけるウィキペディアよりも効果的な知識データベースであることが確認された。
論文 参考訳(メタデータ) (2023-09-05T13:39:38Z) - Large language models in medicine: the potentials and pitfalls [20.419827231982623]
大規模言語モデル(LLM)は、医学的検査の質問から患者の質問への回答まで、医療のタスクに適用されている。
本総説は, 医療従事者を対象に, 医療現場におけるLCMの急速な変化状況を理解する上で, 医療実践者を支援することを目的としている。
論文 参考訳(メタデータ) (2023-08-31T19:06:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。