論文の概要: Adapting Biomedical Abstracts into Plain language using Large Language Models
- arxiv url: http://arxiv.org/abs/2501.15700v1
- Date: Sun, 26 Jan 2025 23:07:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:14.437611
- Title: Adapting Biomedical Abstracts into Plain language using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたバイオメディカル抽象化の平易言語への適応
- Authors: Haritha Gangavarapu, Giridhar Kaushik Ramachandran, Kevin Lybarger, Meliha Yetisgen, Özlem Uzuner,
- Abstract要約: The Plain Language Adaptation of Biomedical Abstracts (PLABA) Trackの目標は、平易な言語を文レベルで使用して一般大衆に問う質問に基づいて、PubMedから抽出された英語のバイオメディカル抽象を適応させることである。
私たちは、ダイアログのユースケースに適しており、微調整されたオープンソースのLarge Language Modelsを活用しました。
GPT-4をベースとした上位モデルでは, 簡易度で第1位, 高精度度で第3位にランクインした。
- 参考スコア(独自算出の注目度): 8.497188292342052
- License:
- Abstract: A vast amount of medical knowledge is available for public use through online health forums, and question-answering platforms on social media. The majority of the population in the United States doesn't have the right amount of health literacy to make the best use of that information. Health literacy means the ability to obtain and comprehend the basic health information to make appropriate health decisions. To build the bridge between this gap, organizations advocate adapting this medical knowledge into plain language. Building robust systems to automate the adaptations helps both medical and non-medical professionals best leverage the available information online. The goal of the Plain Language Adaptation of Biomedical Abstracts (PLABA) track is to adapt the biomedical abstracts in English language extracted from PubMed based on the questions asked in MedlinePlus for the general public using plain language at the sentence level. As part of this track, we leveraged the best open-source Large Language Models suitable and fine-tuned for dialog use cases. We compare and present the results for all of our systems and our ranking among the other participants' submissions. Our top performing GPT-4 based model ranked first in the avg. simplicity measure and 3rd on the avg. accuracy measure.
- Abstract(参考訳): 膨大な量の医療知識は、オンライン健康フォーラムやソーシャルメディア上での質問応答プラットフォームを通じて公共利用が可能である。
米国の人口の大多数は、その情報を最大限に活用するために適切な量の健康リテラシーを持っていません。
健康リテラシー(Health literacy)とは、基本的な健康情報を取得し、理解し、適切な健康判断を行う能力である。
このギャップを埋めるために、組織は、この医学的知識を平易な言語に適応させることを提唱する。
適応を自動化する堅牢なシステムの構築は、医療専門家と非医療専門家の両方がオンラインで利用可能な情報を最大限活用するのに役立ちます。
The Plain Language Adaptation of Biomedical Abstracts (PLABA) Trackの目標は、平易な言語を文レベルで使用して一般大衆に問う質問に基づいて、PubMedから抽出された英語のバイオメディカル抽象を適応させることである。
このトラックの一部として、私たちは、ダイアログのユースケースに適し、微調整された、最高のオープンソースのLarge Language Modelを活用しました。
全システムの結果と、他の参加者の提出品のランキングを比較して提示する。
トップパフォーマンスのGPT-4モデルでは、avgが1位でした。
単純さと第3のavgです
精度測定
関連論文リスト
- IIMedGPT: Promoting Large Language Model Capabilities of Medical Tasks by Efficient Human Preference Alignment [6.022433954095106]
実際の医療課題から派生した6つの医療指導を含む医療指導データセットCMedINSを紹介した。
次に、効率的な選好アライメント手法を用いて、医用モデルIIMedGPTをローンチする。
その結果,本研究の最終モデルは医療対話における既存の医療モデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-06T09:22:36Z) - IMAS: A Comprehensive Agentic Approach to Rural Healthcare Delivery [0.0]
本稿では,農村部における医療提供の改善を目的としたエージェント・メディカル・アシスタントシステムを提案する。
このシステムは、翻訳、医療複雑性評価、専門家ネットワークの統合、応答単純化の5つの重要なコンポーネントで構成されている。
MedQA,PubMedQAおよびJAMAデータセットを用いた評価結果は、この統合アプローチが農村の医療従事者の有効性を著しく向上させることを示す。
論文 参考訳(メタデータ) (2024-10-13T23:07:11Z) - Efficient Medical Question Answering with Knowledge-Augmented Question Generation [5.145812785735094]
本稿では,医療領域における小言語モデルの習熟度を2倍のアプローチで向上させる手法を提案する。
まず、医療教科書のコーパスでモデルを微調整する。
そして、GPT-4を用いて、下流タスクに類似した質問を生成し、教科書の知識でトリガーし、モデルを微調整する。
論文 参考訳(メタデータ) (2024-05-23T14:53:52Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - LLaVA-Med: Training a Large Language-and-Vision Assistant for
Biomedicine in One Day [85.19963303642427]
本稿では,バイオメディカルイメージのオープンな研究課題に答えられる視覚言語対話アシスタントを訓練するための費用効率のよいアプローチを提案する。
モデルはまず、フィギュア・キャプションのペアを使ってバイオメディカル・ボキャブラリをアライメントし、その後、オープンエンドの会話意味論を習得する。
これにより、バイオメディジンのための大規模言語と視覚アシスタントを15時間以内で(8つのA100で)訓練することができる。
論文 参考訳(メタデータ) (2023-06-01T16:50:07Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - HealthE: Classifying Entities in Online Textual Health Advice [0.0]
我々は、6,756の健康アドバイスからなる新しい注釈付きデータセットHealthEをリリースした。
HealthEは既存のNERコーパスに比べて、より粒度の細かいラベル空間を持っている。
我々は、エンティティクラス分類におけるテキストコンテキストパターンを活用する、新しいヘルスエンティティ分類モデルEP S-BERTを導入する。
論文 参考訳(メタデータ) (2022-10-06T23:18:24Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。