論文の概要: Generics in science communication: Misaligned interpretations across laypeople, scientists, and large language models
- arxiv url: http://arxiv.org/abs/2602.06190v1
- Date: Thu, 05 Feb 2026 20:54:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.108479
- Title: Generics in science communication: Misaligned interpretations across laypeople, scientists, and large language models
- Title(参考訳): 科学コミュニケーションにおけるジェネリック: 素人、科学者、および大規模言語モデル間のミスアライメント解釈
- Authors: Uwe Peters, Andrea Bertazzoli, Jasmine M. DeJesus, Gisela J. van der Velden, Benjamin Chin-Yee,
- Abstract要約: 科学者はジェネリック(ジェネリック)を使うことが多い。
ChatGPTのような大きな言語モデルは、科学的なテキストを要約する際に、しばしば同じスタイルを採用する。
ジェネリクスは、特にオーディエンス間で異なる解釈をするときに、過剰な一般化を促すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientists often use generics, that is, unquantified statements about whole categories of people or phenomena, when communicating research findings (e.g., "statins reduce cardiovascular events"). Large language models (LLMs), such as ChatGPT, frequently adopt the same style when summarizing scientific texts. However, generics can prompt overgeneralizations, especially when they are interpreted differently across audiences. In a study comparing laypeople, scientists, and two leading LLMs (ChatGPT-5 and DeepSeek), we found systematic differences in interpretation of generics. Compared to most scientists, laypeople judged scientific generics as more generalizable and credible, while LLMs rated them even higher. These mismatches highlight significant risks for science communication. Scientists may use generics and incorrectly assume laypeople share their interpretation, while LLMs may systematically overgeneralize scientific findings when summarizing research. Our findings underscore the need for greater attention to language choices in both human and LLM-mediated science communication.
- Abstract(参考訳): 研究者は、研究成果(例えば「スタチンは心臓血管イベントを減少させる」など)を伝える際に、人や現象のカテゴリ全体に関する不正確な記述をしばしば使用する。
ChatGPTのような大きな言語モデル(LLM)は、科学的なテキストを要約する際に、しばしば同じスタイルを採用する。
しかし、ジェネリクスは、特にオーディエンス間で異なる解釈がなされた場合、過一般化を促すことができる。
素人,科学者,および2つの主要なLLM(ChatGPT-5とDeepSeek)を比較した研究では,ジェネリックの解釈に系統的な差異が認められた。
ほとんどの科学者と比較すると、一般市民は科学的ジェネリックをより一般化可能で信頼性が高いと判断し、LSMはより高い評価を下した。
これらのミスマッチは、科学コミュニケーションの重大なリスクを浮き彫りにする。
科学者はジェネリックを使用し、素人が解釈を共有していると誤って仮定する一方、LLMは研究を要約する際に科学的発見を体系的に過大に一般化する可能性がある。
本研究は,人間とLLMを介する科学コミュニケーションにおいて,言語選択にもっと注意を払う必要があることを明らかにするものである。
関連論文リスト
- Not too long do read: Evaluating LLM-generated extreme scientific summaries [0.0]
本稿では,学術論文からの研究者による要約を多数含む新しいデータセットBiomedTLDRを提案する。
次に、抽象概念に基づく極端な要約を生成するために、人気のあるオープンウェイト LLM をテストする。
解析の結果,人型サマリーの創出に成功しているものもあるが,LLMは原文の語彙的選択や修辞的構造に対して,より親和性が高いことが明らかとなった。
論文 参考訳(メタデータ) (2025-12-29T05:03:02Z) - Generalization Bias in Large Language Model Summarization of Scientific Research [0.0]
科学的テキストを要約する場合、大きな言語モデル(LLM)は研究の結論の範囲を制限する詳細を省略することができる。
また,ChatGPT-4o,ChatGPT-4.5,DeepSeek,LLaMA 3.370B,Claude 3.7 Sonnetの10種類のLLMを試験した。
LLMは、DeepSeek、ChatGPT-4o、LLaMA 3.3 70Bが26から73%のケースで過剰に一般化した。
論文 参考訳(メタデータ) (2025-03-28T19:23:41Z) - Why Does ChatGPT "Delve" So Much? Exploring the Sources of Lexical Overrepresentation in Large Language Models [0.0]
科学者による大規模言語モデル(LLM)の使用が言語変化の原因であると広く考えられている。
我々は,これらの言語変化を特徴付ける形式的,伝達可能な方法を開発した。
LLM の使用により,科学的な抽象概念の出現が増加する21の焦点単語が検出された。
ヒトのフィードバックからの強化学習が焦点単語の過剰使用に寄与するかどうかを評価する。
論文 参考訳(メタデータ) (2024-12-16T02:27:59Z) - Generics are puzzling. Can language models find the missing piece? [70.14604603488178]
本稿では,言語モデルとして言語モデルを活用することで,ジェネリクスの暗黙的定量化と文脈感度について検討する。
ConGenは2873の自然発生文と、文脈における定量化文のデータセットです。
実験の結果, ジェネリックは決定器の量化器よりも文脈に敏感であり, 自然発生ジェネリックの約20%は弱い一般化を表現していることがわかった。
論文 参考訳(メタデータ) (2024-12-15T21:30:21Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - Delving into LLM-assisted writing in biomedical publications through excess vocabulary [4.58733012283457]
ChatGPTのような大きな言語モデル(LLM)は、人間レベルのパフォーマンスでテキストを生成し、修正することができる。
PubMedによる2010年から2024年にかけての1500万以上のバイオメディカル・抽象化の語彙変化について検討した。
バイオメディカル研究におけるLCMは,コビッドパンデミックなどの世界大イベントの影響を超越し,科学的な執筆に前例のない影響を与えていることを示す。
論文 参考訳(メタデータ) (2024-06-11T07:16:34Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。