論文の概要: Working with Large Language Models to Enhance Messaging Effectiveness for Vaccine Confidence
- arxiv url: http://arxiv.org/abs/2504.09857v1
- Date: Mon, 14 Apr 2025 04:06:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:55:35.756627
- Title: Working with Large Language Models to Enhance Messaging Effectiveness for Vaccine Confidence
- Title(参考訳): ワクチン信頼性に対するメッセージングの有効性を高めるための大規模言語モデルの開発
- Authors: Lucinda Gullison, Feng Fu,
- Abstract要約: ワクチンヘシタシーと誤報は、広範囲にわたるワクチン接種率を達成するための重要な障壁である。
本稿では,ChatGPTを付加したメッセージがワクチン接種への信頼を高める可能性について検討する。
- 参考スコア(独自算出の注目度): 0.276240219662896
- License:
- Abstract: Vaccine hesitancy and misinformation are significant barriers to achieving widespread vaccination coverage. Smaller public health departments may lack the expertise or resources to craft effective vaccine messaging. This paper explores the potential of ChatGPT-augmented messaging to promote confidence in vaccination uptake. We conducted a survey in which participants chose between pairs of vaccination messages and assessed which was more persuasive and to what extent. In each pair, one message was the original, and the other was augmented by ChatGPT. At the end of the survey, participants were informed that half of the messages had been generated by ChatGPT. They were then asked to provide both quantitative and qualitative responses regarding how knowledge of a message's ChatGPT origin affected their impressions. Overall, ChatGPT-augmented messages were rated slightly higher than the original messages. These messages generally scored better when they were longer. Respondents did not express major concerns about ChatGPT-generated content, nor was there a significant relationship between participants' views on ChatGPT and their message ratings. Notably, there was a correlation between whether a message appeared first or second in a pair and its score. These results point to the potential of ChatGPT to enhance vaccine messaging, suggesting a promising direction for future research on human-AI collaboration in public health communication.
- Abstract(参考訳): ワクチンヘシタシーと誤報は、広範囲にわたるワクチン接種率を達成するための重要な障壁である。
より小さな公衆衛生部門は効果的なワクチンメッセージングを作るための専門知識や資源を欠いている。
本稿では,ChatGPTを付加したメッセージがワクチン接種への信頼を高める可能性について検討する。
参加者は予防接種メッセージのペア選択を行い、より説得力があり、どの程度の程度で評価した。
各ペアで1つのメッセージがオリジナルで、もう1つはChatGPTによって拡張された。
調査の最後に、参加者はChatGPTによってメッセージの半分が生成されたことを知らされた。
その後、メッセージのChatGPT起源の知識が彼らの印象にどのように影響するかについて、量的および質的な応答を提供するよう求められた。
全体として、ChatGPTで強化されたメッセージは、元のメッセージよりもわずかに高い評価を受けた。
これらのメッセージは、一般的に、より長いときに、より良いスコアを得ます。
回答は、ChatGPT生成コンテンツに対する大きな懸念を表明せず、参加者のChatGPTに対する見解とメッセージレーティングとの間にも有意な相関はみられなかった。
特に、メッセージがペアで最初に現れるか、第2に現れるか、そのスコアとの間には相関関係があった。
これらの結果は、ChatGPTがワクチンメッセージングを強化する可能性を示している。
関連論文リスト
- ChatGPT and Vaccine Hesitancy: A Comparison of English, Spanish, and French Responses Using a Validated Scale [1.5133368155322295]
本稿では,英語,スペイン語,フランス語におけるChatGPT応答の保持度を測定するために,Vaccine Hesitancy Scaleを用いた。
結果は、健康関連Web情報の質とエクイティを評価し改善することに関心のある研究者に影響を及ぼす。
論文 参考訳(メタデータ) (2024-05-06T11:13:03Z) - Accuracy of a Large Language Model in Distinguishing Anti- And Pro-vaccination Messages on Social Media: The Case of Human Papillomavirus Vaccination [1.8434042562191815]
本研究は, 感情分析におけるChatGPTの精度を評価し, HPVワクチン接種に対する異なるスタンスを識別するものである。
HPV予防接種に関連するメッセージは、さまざまなメッセージフォーマットをサポートするソーシャルメディアから収集された:Facebook(ロングフォーマット)とTwitter(ショートフォーマット)。
メッセージ毎の正確さを,人間と機械の意思決定の一致度として,0~1の範囲で測定した。
論文 参考訳(メタデータ) (2024-04-10T04:35:54Z) - The effect of source disclosure on evaluation of AI-generated messages:
A two-part study [0.0]
情報源開示がAIによる健康被害防止メッセージの評価に与える影響について検討した。
情報源の開示はメッセージの評価に大きな影響を及ぼすが、メッセージのランキングを大きく変更することはなかった。
AIに対する否定的な態度の適度なレベルを持つ人にとっては、ソース開示はAI生成メッセージの嗜好を減らした。
論文 参考訳(メタデータ) (2023-11-27T05:20:47Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Is ChatGPT Involved in Texts? Measure the Polish Ratio to Detect
ChatGPT-Generated Text [48.36706154871577]
我々はHPPT(ChatGPT-polished academic abstracts)と呼ばれる新しいデータセットを紹介する。
純粋なChatGPT生成テキストの代わりに、人書きとChatGPTポリケートされた抽象文のペアを構成することで、既存のコーパスから分岐する。
また,ChatGPTによる修正の度合いを,オリジナルの人文テキストと比較した革新的な尺度であるPolish Ratio法を提案する。
論文 参考訳(メタデータ) (2023-07-21T06:38:37Z) - Performance of ChatGPT on USMLE: Unlocking the Potential of Large
Language Models for AI-Assisted Medical Education [0.0]
本研究は,ChatGPTが複雑な医学的および臨床的な疑問に答える上で,いかに信頼性が高いかを検討した。
本研究は2方向ANOVAとポストホック解析を用いて得られた結果について検討した。
ChatGPTによる回答は、通常のGoogle検索結果よりもコンテキスト指向であることが判明した。
論文 参考訳(メタデータ) (2023-06-30T19:53:23Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - On the Robustness of ChatGPT: An Adversarial and Out-of-distribution
Perspective [67.98821225810204]
本研究は,ChatGPTの頑健性について,敵対的視点とアウト・オブ・ディストリビューションの観点から評価する。
その結果,ほとんどの対人・OOD分類・翻訳作業において一貫した優位性を示した。
ChatGPTは対話関連テキストの理解において驚くべきパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-02-22T11:01:20Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Characterizing Sociolinguistic Variation in the Competing Vaccination
Communities [9.72602429875255]
メッセージの“フレーミング”と“個人化”は、説得力のあるメッセージング戦略を考案する上で重要な機能のひとつです。
健康関連誤報の文脈では、予防接種が不協和の最も一般的な話題である。
われわれはTwitter上で、競合する2つの予防接種コミュニティの社会言語学的分析を行う。
論文 参考訳(メタデータ) (2020-06-08T03:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。