論文の概要: Communication Styles and Reader Preferences of LLM and Human Experts in Explaining Health Information
- arxiv url: http://arxiv.org/abs/2505.08143v1
- Date: Tue, 13 May 2025 00:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.379763
- Title: Communication Styles and Reader Preferences of LLM and Human Experts in Explaining Health Information
- Title(参考訳): 健康情報の説明におけるLLMと人間専門家のコミュニケーションスタイルと読者の嗜好
- Authors: Jiawei Zhou, Kritika Venkatachalam, Minje Choi, Koustuv Saha, Munmun De Choudhury,
- Abstract要約: 大規模言語モデル(LLM)の通信スタイルについて検討した。
権威ある事実検査機関から1498件の健康誤報説明データセットを収集した。
情報提示に対するLCMの構造化アプローチは,読者の関心を喚起する上でより効果的である可能性が示唆された。
- 参考スコア(独自算出の注目度): 20.955508468328603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the wide adoption of large language models (LLMs) in information assistance, it is essential to examine their alignment with human communication styles and values. We situate this study within the context of fact-checking health information, given the critical challenge of rectifying conceptions and building trust. Recent studies have explored the potential of LLM for health communication, but style differences between LLMs and human experts and associated reader perceptions remain under-explored. In this light, our study evaluates the communication styles of LLMs, focusing on how their explanations differ from those of humans in three core components of health communication: information, sender, and receiver. We compiled a dataset of 1498 health misinformation explanations from authoritative fact-checking organizations and generated LLM responses to inaccurate health information. Drawing from health communication theory, we evaluate communication styles across three key dimensions of information linguistic features, sender persuasive strategies, and receiver value alignments. We further assessed human perceptions through a blinded evaluation with 99 participants. Our findings reveal that LLM-generated articles showed significantly lower scores in persuasive strategies, certainty expressions, and alignment with social values and moral foundations. However, human evaluation demonstrated a strong preference for LLM content, with over 60% responses favoring LLM articles for clarity, completeness, and persuasiveness. Our results suggest that LLMs' structured approach to presenting information may be more effective at engaging readers despite scoring lower on traditional measures of quality in fact-checking and health communication.
- Abstract(参考訳): 情報支援において大規模言語モデル(LLM)が広く採用されているため、人間のコミュニケーションスタイルや価値観との整合性を検討することが不可欠である。
本研究は、概念の是正と信頼構築という重要な課題を考慮し、事実確認健康情報の文脈に置かれる。
近年、健康コミュニケーションにおけるLLMの可能性を探っているが、LLMと人間の専門家と、それに関連する読者の認識とのスタイルの相違は未解明のままである。
本研究は, 健康コミュニケーションの3つの要素である情報, 送信者, 受信者における人間との違いに着目し, LLMのコミュニケーション形態について検討した。
信頼的事実確認組織から1498件の健康情報誤情報分析データセットを収集し,不正確な健康情報に対するLCM応答を生成した。
健康コミュニケーション理論から,情報言語的特徴,送信者説得戦略,受信者価値アライメントの3つの重要な側面にわたるコミュニケーションスタイルを評価する。
さらに,99名の被験者を対象に,視覚障害者の評価を行った。
その結果, LLM生成記事は説得的戦略, 確実性表現, 社会的価値や道徳的基盤との整合性において有意に低いスコアを示した。
しかし, 人間の評価は, LLMの内容を強く好んでおり, 60%以上の回答は, 明瞭さ, 完全性, 説得力に優れていた。
以上の結果から,LCMによる情報提示の構造化アプローチは,ファクトチェックや健康コミュニケーションにおいて,従来の品質基準を下方修正したものの,読者のエンゲージメントに有効である可能性が示唆された。
関連論文リスト
- The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks [0.0]
簡単な抜粋(薄いスライス)が全体のプレゼンテーション品質を確実に予測できることを示します。
我々は,100以上の実生活科学講演の新たなコーパスを用いて,Large Language Models (LLMs) を用いて,プレゼンテーションの完全な書き起こしを評価する。
以上の結果から,LCMによる評価は人間の評価と密接に一致し,妥当性,信頼性,効率性が証明された。
論文 参考訳(メタデータ) (2025-04-15T00:08:13Z) - Enhancing Patient-Centric Communication: Leveraging LLMs to Simulate Patient Perspectives [19.462374723301792]
大きな言語モデル(LLM)はロールプレイングのシナリオにおいて印象的な機能を示している。
人間の行動を模倣することで、LLMは具体的な人口統計や専門的なプロファイルに基づいて反応を予測できる。
多様な背景を持つ個人をシミュレーションする上でのLLMの有効性を評価し,これらのシミュレーション行動の一貫性を解析した。
論文 参考訳(メタデータ) (2025-01-12T22:49:32Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z) - A Survey of Large Language Models for Healthcare: from Data, Technology, and Applications to Accountability and Ethics [32.10937977924507]
医療分野における大規模言語モデル(LLM)の利用は、興奮と懸念の両方を引き起こしている。
本調査では、現在開発中のLLMs for Healthcareの能力について概説し、開発プロセスについて解説する。
論文 参考訳(メタデータ) (2023-10-09T13:15:23Z) - Don't Ignore Dual Logic Ability of LLMs while Privatizing: A
Data-Intensive Analysis in Medical Domain [19.46334739319516]
本研究では, LLMの二重論理能力が, 医療領域の民営化過程における影響について検討した。
以上の結果から,LLMに汎用ドメイン二重論理データを組み込むことによって,LLMの二重論理能力が向上するだけでなく,精度も向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-08T08:20:46Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。