論文の概要: Prompt engineering paradigms for medical applications: scoping review and recommendations for better practices
- arxiv url: http://arxiv.org/abs/2405.01249v1
- Date: Thu, 2 May 2024 12:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 16:34:40.920038
- Title: Prompt engineering paradigms for medical applications: scoping review and recommendations for better practices
- Title(参考訳): 医療応用のためのプロンプトエンジニアリングパラダイム--スコーピングレビューとより良い実践のためのレコメンデーション
- Authors: Jamil Zaghir, Marco Naguib, Mina Bjelogrlic, Aurélie Névéol, Xavier Tannier, Christian Lovis,
- Abstract要約: 医学におけるプロンプト・エンジニアリングの適用、プロンプト・ラーニング(PL)、プロンプト・チューニング(PT)、プロンプト・デザイン(PD)に関する114の研究を概観する。
12紙において, PD, PL, PTの用語を交互に用いた。ChatGPTは最も一般的に用いられているLCMであり, 機密性のある臨床データ処理に7紙を用いた。
PLおよびPTの記事は、通常、プロンプトベースのアプローチを評価するためのベースラインを提供するが、PD研究の64%はプロンプト関連のベースラインを欠いている。
- 参考スコア(独自算出の注目度): 3.891560188235256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt engineering is crucial for harnessing the potential of large language models (LLMs), especially in the medical domain where specialized terminology and phrasing is used. However, the efficacy of prompt engineering in the medical domain remains to be explored. In this work, 114 recent studies (2022-2024) applying prompt engineering in medicine, covering prompt learning (PL), prompt tuning (PT), and prompt design (PD) are reviewed. PD is the most prevalent (78 articles). In 12 papers, PD, PL, and PT terms were used interchangeably. ChatGPT is the most commonly used LLM, with seven papers using it for processing sensitive clinical data. Chain-of-Thought emerges as the most common prompt engineering technique. While PL and PT articles typically provide a baseline for evaluating prompt-based approaches, 64% of PD studies lack non-prompt-related baselines. We provide tables and figures summarizing existing work, and reporting recommendations to guide future research contributions.
- Abstract(参考訳): プロンプト工学は大規模言語モデル(LLM)の可能性を生かし、特に専門用語や言い回しが用いられる医学領域において重要である。
しかし, 医療領域における即時工学の有効性は検討されていない。
本研究は114の最近の研究 (2022-2024) を医学に応用し, 即時学習(PL), 即時チューニング(PT), 即時設計(PD)について概説した。
PDが最も多い(78条)。
12紙で,PD,PL,PTの用語を交互に使用した。
チャットGPTは最も一般的に使用されるLCMで、機密性のある臨床データを処理するために7つの論文が使われている。
チェーン・オブ・ソート(Chain-of-Thought)は、最も一般的なプロンプトエンジニアリング技術として出現する。
PLおよびPTの記事は、通常、プロンプトベースのアプローチを評価するためのベースラインを提供するが、PD研究の64%はプロンプト関連のベースラインを欠いている。
我々は、既存の作業を要約した表や数字を提供し、将来の研究貢献を導くためのレコメンデーションを報告します。
関連論文リスト
- Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case
Study in Medicine [89.46836590149883]
本研究は, GPT-4の医学的課題評価における能力について, 専門訓練の欠如による先行研究に基づくものである。
イノベーションを促進することで、より深い専門能力が解放され、GPT-4が医学ベンチマークの先行結果に容易に勝っていることが分かる。
Medpromptを使用すると、GPT-4はMultiMedQAスイートのベンチマークデータセットの9つすべてに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-11-28T03:16:12Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - An Empirical Evaluation of Prompting Strategies for Large Language
Models in Zero-Shot Clinical Natural Language Processing [4.758617742396169]
本研究は,5つのNLPタスクに対する即時エンジニアリングに関する包括的,系統的研究である。
近年の文献では, 単純な接頭辞, 単純なクローゼ, 思考の連鎖, 予測プロンプトなどが提案されている。
臨床NLPにおけるLCMの迅速なエンジニアリングのための新しい知見とガイドラインを提供する。
論文 参考訳(メタデータ) (2023-09-14T19:35:00Z) - Prompt Engineering for Healthcare: Methodologies and Applications [93.63832575498844]
本総説では,医学分野の自然言語処理分野における情報工学の最近の進歩を紹介する。
我々は、迅速なエンジニアリングの開発を提供し、その医療自然言語処理アプリケーションへの重要な貢献を強調します。
論文 参考訳(メタデータ) (2023-04-28T08:03:42Z) - ITTC @ TREC 2021 Clinical Trials Track [54.141379782822206]
本課題は、患者の入院ノートの要約を構成するトピックに有効な臨床試験を適合させる問題に焦点を当てる。
NLP手法を用いて試行とトピックの表現方法を探索し、共通の検索モデルを用いて各トピックに関連するトライアルのランク付けリストを生成する。
提案されたすべての実行の結果は、すべてのトピックの中央値よりもはるかに上回っていますが、改善の余地はたくさんあります。
論文 参考訳(メタデータ) (2022-02-16T04:56:47Z) - Domain-Specific Pretraining for Vertical Search: Case Study on
Biomedical Literature [67.4680600632232]
自己教師型学習は、アノテーションのボトルネックを克服するための有望な方向として現れました。
本稿では,ドメイン固有の事前学習に基づく垂直探索手法を提案する。
我々のシステムはPubMed上で何千万もの記事にスケールでき、Microsoft Biomedical Searchとしてデプロイされている。
論文 参考訳(メタデータ) (2021-06-25T01:02:55Z) - Multi-Perspective Semantic Information Retrieval in the Biomedical
Domain [0.0]
情報検索(Information Retrieval、IR)とは、特定のクエリやニーズに関連するデータ(ドキュメントなど)を取得するタスクである。
現代のニューラルアプローチは、古典的なアプローチと比べて一定の利点がある。
この研究は、バイオメディカルセマンティック情報検索ドメインのいくつかの側面に貢献する。
論文 参考訳(メタデータ) (2020-07-17T21:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。