論文の概要: Scientific production in the era of Large Language Models
- arxiv url: http://arxiv.org/abs/2601.13187v1
- Date: Mon, 19 Jan 2026 16:10:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.963982
- Title: Scientific production in the era of Large Language Models
- Title(参考訳): 大規模言語モデルにおける科学的生産
- Authors: Keigo Kusumegi, Xinyu Yang, Paul Ginsparg, Mathijs de Vaan, Toby Stuart, Yian Yin,
- Abstract要約: LLM(Large Language Models)は、科学的研究を急速に変えつつある。
我々はこれらの変更を、複数の大規模データセットで分析し、210万のプレプリント、28Kのピアレビューレポート、科学文書へのオンラインアクセス246万を分析した。
- 参考スコア(独自算出の注目度): 8.9515784506288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are rapidly reshaping scientific research. We analyze these changes in multiple, large-scale datasets with 2.1M preprints, 28K peer review reports, and 246M online accesses to scientific documents. We find: 1) scientists adopting LLMs to draft manuscripts demonstrate a large increase in paper production, ranging from 23.7-89.3% depending on scientific field and author background, 2) LLM use has reversed the relationship between writing complexity and paper quality, leading to an influx of manuscripts that are linguistically complex but substantively underwhelming, and 3) LLM adopters access and cite more diverse prior work, including books and younger, less-cited documents. These findings highlight a stunning shift in scientific production that will likely require a change in how journals, funding agencies, and tenure committees evaluate scientific works.
- Abstract(参考訳): LLM(Large Language Models)は、科学的研究を急速に変えつつある。
我々はこれらの変更を、複数の大規模データセットで分析し、210万のプレプリント、28Kのピアレビューレポート、科学文書へのオンラインアクセス246万を分析した。
以下に示す。
1) LLMを原本に採用した科学者は、科学分野や著者の背景により、23.7~89.3%の紙生産が増加していることを証明している。
2) LLM の使用は,文章の複雑さと紙の質の関係を逆転させ,言語的に複雑だが実質的に圧倒される原稿の流入につながった。
3) LLM の採用者は,書籍や若く暗黙的でない文書など,より多様な先行作業にアクセスし,引用する。
これらの発見は、学術雑誌、資金調達機関、在任委員会が科学的成果を評価する方法を変える必要があるであろう、科学的生産の驚くべき変化を浮き彫りにしている。
関連論文リスト
- Does GenAI Rewrite How We Write? An Empirical Study on Two-Million Preprints [15.070885964897734]
生成型大規模言語モデル(LLM)は、原稿の書き方を変えることによって、さらなる破壊をもたらす可能性がある。
本稿は、2016年から2025年(115ヶ月)にかけての2100万件以上のプレプリントを4つの主要なリポジトリで大規模に分析することで、このギャップを解消する。
以上の結果から,LSMは提出サイクルと修正サイクルを加速し,言語的複雑性が緩やかに増加し,AI関連トピックが不均等に拡大したことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T01:37:40Z) - Let's Use ChatGPT To Write Our Paper! Benchmarking LLMs To Write the Introduction of a Research Paper [64.50822834679101]
SciIGは、タイトル、抽象、および関連する作品からコヒーレントな紹介を生成するLLMの能力を評価するタスクである。
オープンソース (DeepSeek-v3, Gemma-3-12B, LLaMA 4-Maverick, MistralAI Small 3.1) およびクローズドソース GPT-4o システムを含む5つの最先端モデルを評価する。
結果は、特に意味的類似性と忠実性において、ほとんどのメトリクスにおいて、LLaMA-4 Maverickの優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-08-19T21:11:11Z) - How Deep Do Large Language Models Internalize Scientific Literature and Citation Practices? [1.130790932059036]
論文の引用において,大規模言語モデル (LLM) がマシュー効果の強化に寄与していることが示唆された。
我々はGPT-4oが生成した274,951個の参照を1万件の論文に対して分析した。
論文 参考訳(メタデータ) (2025-04-03T17:04:56Z) - On the Effectiveness of Large Language Models in Automating Categorization of Scientific Texts [5.831737970661138]
我々は,学術論文を階層型分類システムに分類する能力において,Large Language Models (LLMs) を評価する。
FORCデータセットを基底真理データとして使用することにより、最近のLCMでは、従来のBERTモデルよりも最大0.08の精度で、最大0.82の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-02-08T20:37:21Z) - Towards Efficient Large Language Models for Scientific Text: A Review [4.376712802685017]
大規模言語モデル(LLM)は、科学を含む様々な分野において複雑な情報を処理するための新しい時代を迎えている。
LLMのパワーのため、非常に高価な計算資源、大量のデータ、訓練時間が必要である。
近年、研究者は科学的LLMをより手頃な価格にするための様々な手法を提案している。
論文 参考訳(メタデータ) (2024-08-20T10:57:34Z) - A Comprehensive Survey of Scientific Large Language Models and Their Applications in Scientific Discovery [68.48094108571432]
大規模言語モデル(LLM)は、テキストやその他のデータ処理方法に革命をもたらした。
我々は,科学LLM間のクロスフィールドおよびクロスモーダル接続を明らかにすることで,研究ランドスケープのより総合的なビューを提供することを目指している。
論文 参考訳(メタデータ) (2024-06-16T08:03:24Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。