論文の概要: ChatGPT-3.5, ChatGPT-4, Google Bard, and Microsoft Bing to Improve
Health Literacy and Communication in Pediatric Populations and Beyond
- arxiv url: http://arxiv.org/abs/2311.10075v1
- Date: Thu, 16 Nov 2023 18:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 13:13:24.621913
- Title: ChatGPT-3.5, ChatGPT-4, Google Bard, and Microsoft Bing to Improve
Health Literacy and Communication in Pediatric Populations and Beyond
- Title(参考訳): ChatGPT-3.5、ChatGPT-4、Google Bard、Microsoft Bingは小児における健康リテラシーとコミュニケーションを改善する
- Authors: Kanhai S. Amin, Linda Mayes, Pavan Khosla, Rushabh Doshi
- Abstract要約: 大型言語モデル(LLM)は、子供や他の人口の健康リテラシーを改善する媒体として機能する。
私たちはChatGPT-3.5、Microsoft Bing、Google Bardを通じて26のプロンプトを使用して288の条件を実行しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Enhanced health literacy has been linked to better health outcomes;
however, few interventions have been studied. We investigate whether large
language models (LLMs) can serve as a medium to improve health literacy in
children and other populations.
Methods: We ran 288 conditions using 26 different prompts through
ChatGPT-3.5, Microsoft Bing, and Google Bard. Given constraints imposed by rate
limits, we tested a subset of 150 conditions through ChatGPT-4. The primary
outcome measurements were the reading grade level (RGL) and word counts of
output.
Results: Across all models, output for basic prompts such as "Explain" and
"What is (are)" were at, or exceeded, a 10th-grade RGL. When prompts were
specified to explain conditions from the 1st to 12th RGL, we found that LLMs
had varying abilities to tailor responses based on RGL. ChatGPT-3.5 provided
responses that ranged from the 7th-grade to college freshmen RGL while
ChatGPT-4 outputted responses from the 6th-grade to the college-senior RGL.
Microsoft Bing provided responses from the 9th to 11th RGL while Google Bard
provided responses from the 7th to 10th RGL.
Discussion: ChatGPT-3.5 and ChatGPT-4 did better in achieving lower-grade
level outputs. Meanwhile Bard and Bing tended to consistently produce an RGL
that is at the high school level regardless of prompt. Additionally, Bard's
hesitancy in providing certain outputs indicates a cautious approach towards
health information. LLMs demonstrate promise in enhancing health communication,
but future research should verify the accuracy and effectiveness of such tools
in this context.
Implications: LLMs face challenges in crafting outputs below a sixth-grade
reading level. However, their capability to modify outputs above this threshold
provides a potential mechanism to improve health literacy and communication in
a pediatric population and beyond.
- Abstract(参考訳): 目的: 健康リテラシーの強化は, 良好な健康成果と結びついているが, ほとんど研究されていない。
本研究では,大言語モデル(llm)が,子どもの健康リテラシー向上の媒体となるかを検討する。
メソッド: ChatGPT-3.5、Microsoft Bing、Google Bardを通じて26のプロンプトを使用して288の条件を実行しました。
レート制限による制約を考慮し,ChatGPT-4を用いて150条件のサブセットを検証した。
主な結果として,読解成績レベル(RGL)と単語数(アウトプット)があげられた。
結果: すべてのモデルにおいて, "explain" や "what is (are)" といった基本プロンプトの出力は,第10グレードの rgl であった。
第1回から第12回までの状況を説明するプロンプトが特定されたとき,llmはrglに基づいて応答を調整できる能力を持っていた。
ChatGPT-3.5は7年生から大学生のRGLに、ChatGPT-4は6年生から大学生のRGLに応答した。
Microsoft Bingは第9~第11RGLから回答を提供し、Google Bardは第7~第10RGLから回答を提供した。
議論: ChatGPT-3.5 と ChatGPT-4 は下位レベルの出力を達成できた。
一方、bardとbingは、プロンプトに関係なく、常に高校レベルのrglを作成する傾向があった。
さらに、あるアウトプットを提供するというバルドの迷信は、健康情報に対する慎重なアプローチを示している。
LLMは、健康コミュニケーションの強化を約束するが、今後の研究は、こうしたツールの精度と有効性を検証するべきである。
意味: LLMは、6グレードの読み込みレベル以下でアウトプットを作成する上で、課題に直面します。
しかし、この閾値を超える出力を変化させる能力は、小児の人口や他の地域の健康リテラシーとコミュニケーションを改善する潜在的メカニズムを提供する。
関連論文リスト
- LLM Robustness Against Misinformation in Biomedical Question Answering [50.98256373698759]
探索拡張生成(RAG)アプローチは,質問応答のための大規模言語モデル(LLM)の折り畳みを低減するために用いられる。
バイオメディカル質問に対する誤報に対する4つのLDMの有効性とロバスト性を評価した。
論文 参考訳(メタデータ) (2024-10-27T16:23:26Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - How do you know that? Teaching Generative Language Models to Reference Answers to Biomedical Questions [0.0]
大規模言語モデル(LLM)が最近,ユーザの質問に対するオンライン回答の主要なソースになっている。
雄弁な答えを提供する能力があるにもかかわらず、その正確さと信頼性は重大な課題となる。
本稿では, バイオメディカル検索強化生成システム(RAG)を導入し, 生成した応答の信頼性を高める。
論文 参考訳(メタデータ) (2024-07-06T09:10:05Z) - Rephrase, Augment, Reason: Visual Grounding of Questions for Vision-Language Models [59.05769810380928]
Rephrase, Augment and Reason (RepARe) は勾配のないフレームワークで、基礎となる視覚言語モデルを用いて画像に関する詳細な情報を抽出する。
その結果、VQAv2では3.85%(絶対)、A-OKVQAでは6.41%、VizWizでは7.94%の増加が見られた。
論文 参考訳(メタデータ) (2023-10-09T16:57:57Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - IvyGPT: InteractiVe Chinese pathwaY language model in medical domain [7.5386393444603454]
ChatGPTのような一般的な大規模言語モデル(LLM)は顕著な成功を収めている。
LLaMAをベースとしたLLMであるIvyGPTを提案する。
トレーニングでは、QLoRAを使用して、少数のNVIDIA A100(80GB)上で33億のパラメータをトレーニングしました。
実験の結果、IvyGPTは他の医療用GPTモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-20T01:11:14Z) - ChatGPT and Bard Responses to Polarizing Questions [9.845338348278338]
私たちはChatGPTとBardレスポンスのデータセットを作成し、記述しました。
その結果,ChatGPTとBardのいずれにおいても左利きバイアスが認められた。
バードは論争を巻き起こす話題に対するガードレールが少なかったようで、より包括的で人間らしい反応を提供したいと願うように見えた。
論文 参考訳(メタデータ) (2023-07-13T14:45:47Z) - Detecting LLM-Generated Text in Computing Education: A Comparative Study
for ChatGPT Cases [0.0]
大規模言語モデル(LLM)は、教育における学術的完全性に深刻な脅威をもたらしている。
現代の検出器は、学術的完全性を維持するための完全なソリューションを提供するために、まだ改善を必要としている。
論文 参考訳(メタデータ) (2023-07-10T12:18:34Z) - Performance of ChatGPT on USMLE: Unlocking the Potential of Large
Language Models for AI-Assisted Medical Education [0.0]
本研究は,ChatGPTが複雑な医学的および臨床的な疑問に答える上で,いかに信頼性が高いかを検討した。
本研究は2方向ANOVAとポストホック解析を用いて得られた結果について検討した。
ChatGPTによる回答は、通常のGoogle検索結果よりもコンテキスト指向であることが判明した。
論文 参考訳(メタデータ) (2023-06-30T19:53:23Z) - Chameleon: Plug-and-Play Compositional Reasoning with Large Language
Models [187.58051653991686]
大規模言語モデル(LLM)は、様々な自然言語処理タスクの解決において顕著な進歩を遂げている。
しかし、最新の情報にアクセスできないため、固有の制限がある。
本稿では,LLMを合成推論のためのプラグアンドプレイモジュールで拡張するAIシステムChameleonを紹介する。
論文 参考訳(メタデータ) (2023-04-19T17:47:47Z) - Is ChatGPT Good at Search? Investigating Large Language Models as
Re-Ranking Agents [56.104476412839944]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。