論文の概要: AI as We Describe It: How Large Language Models and Their Applications in Health are Represented Across Channels of Public Discourse
- arxiv url: http://arxiv.org/abs/2511.03174v1
- Date: Wed, 05 Nov 2025 04:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.324167
- Title: AI as We Describe It: How Large Language Models and Their Applications in Health are Represented Across Channels of Public Discourse
- Title(参考訳): 説明するAI:大規模言語モデルとその健康への応用が公開談話のチャネル全体でどのように表現されるか
- Authors: Jiawei Zhou, Lei Zhang, Mei Li, Benjamin D Horne, Munmun De Choudhury,
- Abstract要約: 辞書形式,情報内容,記号表現を2年間にわたって分析した。
概して肯定的であり, 肯定的であった。
プロのメディアと比較すると、TikTokとRedditは幸福なアプリケーションを強調し、トーンや人為性に大きな変化を示したが、リスクにはほとんど注意を払わなかった。
- 参考スコア(独自算出の注目度): 23.12110481705952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation shapes public attitudes and behaviors. With the arrival and rapid adoption of LLMs, the way these systems are introduced will negotiate societal expectations for their role in high-stakes domains like health. Yet it remains unclear whether current narratives present a balanced view. We analyzed five prominent discourse channels (news, research press, YouTube, TikTok, and Reddit) over a two-year period on lexical style, informational content, and symbolic representation. Discussions were generally positive and episodic, with positivity increasing over time. Risk communication was unthorough and often reduced to information quality incidents, while explanations of LLMs' generative nature were rare. Compared with professional outlets, TikTok and Reddit highlighted wellbeing applications and showed greater variations in tone and anthropomorphism but little attention to risks. We discuss implications for public discourse as a diagnostic tool in identifying literacy and governance gaps, and for communication and design strategies to support more informed LLM engagement.
- Abstract(参考訳): 表象は大衆の態度や振舞いを形作る。
LLMの到来と急速な採用により、これらのシステムの導入方法は、健康のような高い領域における彼らの役割に対する社会的期待を交渉する。
しかし、現在の説話がバランスの取れた見解を示すかどうかは定かではない。
我々は,5つの著名な談話チャンネル(ニュース,研究報道,YouTube,TikTok,Reddit)を2年間にわたって,語彙的スタイル,情報的内容,象徴的表現について分析した。
概して肯定的であり, 肯定的であった。
リスクコミュニケーションは不十分で、情報品質のインシデントに還元されることが多いが、LLMの生成特性の説明はまれであった。
プロのメディアと比較すると、TikTokとRedditは幸福なアプリケーションを強調し、トーンや人為性に大きな変化を示したが、リスクにはほとんど注意を払わなかった。
我々は、リテラシーとガバナンスのギャップを識別するための診断ツールとしての公開談話の意味と、より情報のあるLLMの取り組みを支援するためのコミュニケーションと設計戦略について論じる。
関連論文リスト
- Passing the Turing Test in Political Discourse: Fine-Tuning LLMs to Mimic Polarized Social Media Comments [0.0]
本研究では、微調整された大言語モデル(LLM)が、偏光言説を再現し増幅できる範囲について検討する。
Redditから抽出された政治的に課金された議論のキュレートされたデータセットを使用して、オープンソースのLCMを微調整して、コンテキスト認識とイデオロギー的に整合した応答を生成します。
結果は、パルチザンのデータに基づいてトレーニングすると、LLMは高い信頼性と挑発的なコメントを生成でき、しばしば人間によって書かれたものと区別できないことを示唆している。
論文 参考訳(メタデータ) (2025-06-17T15:41:26Z) - Frame In, Frame Out: Do LLMs Generate More Biased News Headlines than Humans? [11.578398987157925]
メディアにおけるフレーミングは、他の人を軽視しながら、いくつかの詳細を選択的に強調することで、公共の認識を批判的に形作る。
自動ニュースやコンテンツ作成における大規模言語モデルの台頭により、これらのシステムが人間の著者と比較してフレーミングバイアスを導入または増幅するのではないかという懸念が高まっている。
我々の分析によると、特に政治的・社会的に敏感な文脈では、LLMは人間のものよりも顕著なフレーミングを示す傾向にある。
論文 参考訳(メタデータ) (2025-05-08T16:46:24Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Large Language Models can impersonate politicians and other public figures [47.2573979612036]
大規模言語モデル(LLM)のような現代のAI技術は、メイクアップコンテンツで公開情報領域を汚染する可能性がある。
本稿では,英国社会の横断的な研究結果を紹介する。
LLMは、英国で放送された政治討論プログラムの一部である議論の質問に対する応答を生成することができる。
論文 参考訳(メタデータ) (2024-07-09T11:16:19Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。