論文の概要: Examining Linguistic Shifts in Academic Writing Before and After the Launch of ChatGPT: A Study on Preprint Papers
- arxiv url: http://arxiv.org/abs/2505.12218v1
- Date: Sun, 18 May 2025 03:35:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.100217
- Title: Examining Linguistic Shifts in Academic Writing Before and After the Launch of ChatGPT: A Study on Preprint Papers
- Title(参考訳): ChatGPT開始前後の学術書記における言語的変化の検討 : 予備版紙の検討
- Authors: Tong Bao, Yi Zhao, Jin Mao, Chengzhi Zhang,
- Abstract要約: 大規模言語モデル(LLM)は学術的な著作への影響について学術的な懸念を引き起こしている。
我々は、arXivデータセットから過去10年間に発表された823,798件の要約を大規模に分析した。
- 参考スコア(独自算出の注目度): 7.161475868971293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs), such as ChatGPT, have prompted academic concerns about their impact on academic writing. Existing studies have primarily examined LLM usage in academic writing through quantitative approaches, such as word frequency statistics and probability-based analyses. However, few have systematically examined the potential impact of LLMs on the linguistic characteristics of academic writing. To address this gap, we conducted a large-scale analysis across 823,798 abstracts published in last decade from arXiv dataset. Through the linguistic analysis of features such as the frequency of LLM-preferred words, lexical complexity, syntactic complexity, cohesion, readability and sentiment, the results indicate a significant increase in the proportion of LLM-preferred words in abstracts, revealing the widespread influence of LLMs on academic writing. Additionally, we observed an increase in lexical complexity and sentiment in the abstracts, but a decrease in syntactic complexity, suggesting that LLMs introduce more new vocabulary and simplify sentence structure. However, the significant decrease in cohesion and readability indicates that abstracts have fewer connecting words and are becoming more difficult to read. Moreover, our analysis reveals that scholars with weaker English proficiency were more likely to use the LLMs for academic writing, and focused on improving the overall logic and fluency of the abstracts. Finally, at discipline level, we found that scholars in Computer Science showed more pronounced changes in writing style, while the changes in Mathematics were minimal.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、学術的な著作への影響について学術的な懸念を引き起こしている。
既存の研究は、単語頻度統計や確率に基づく分析などの定量的アプローチを通じて、学術著作におけるLLMの使用法を主に研究してきた。
しかし、学術著作の言語的特徴に対するLLMの潜在的影響を体系的に検討する者は少ない。
このギャップに対処するため、arXivデータセットから過去10年間に発表された823,798件の抽象化を大規模に分析した。
LLMが推奨する単語の頻度,語彙的複雑性,構文的複雑性,凝集性,可読性,感情などの特徴を言語学的に分析した結果,LLMが優先する単語の割合が抽象的に顕著に増加し,学術的文章に対するLLMの広範な影響が明らかとなった。
さらに,要約の語彙的複雑さや感情の増大も見られたが,構文的複雑性の低下により,LLMはより新しい語彙を導入し,文構造を簡素化する可能性が示唆された。
しかし、凝集度と可読性の顕著な低下は、抽象語が接続語が少なくなり、読みにくくなっていることを示している。
さらに, 英語能力の弱い学者は, 学術書記にLLMを使う傾向が高く, 抽象書の全体的な論理と流布性の向上に重点を置いていることが明らかとなった。
最後に, 学問レベルでは, 計算機科学の研究者は, 筆記スタイルの顕著な変化を示したが, 数学の変化は最小限であった。
関連論文リスト
- Divergent LLM Adoption and Heterogeneous Convergence Paths in Research Writing [0.8046044493355781]
LLM(Large Language Models)は、コンテンツ作成と学術的執筆を変革する。
本研究は,AIによる生成リビジョンが研究原稿に与える影響について検討する。
論文 参考訳(メタデータ) (2025-04-18T11:09:16Z) - ChatGPT as Linguistic Equalizer? Quantifying LLM-Driven Lexical Shifts in Academic Writing [2.0117661599862164]
本研究では,ChatGPT が OpenAlex (2020-2024) から280万項目にわたる語彙的複雑性変化を解析し,障壁を緩和し,株式を育むかを検討する。
記事レベルの制御やオーサリングパターン,会場規範を制御した後でも,ChatGPTはNNESによる抽象表現の語彙的複雑さを著しく向上させることを示した。
これらの知見は、ChatGPTが言語格差を減らし、グローバルなアカデミックにおけるエクイティを促進するという因果的証拠である。
論文 参考訳(メタデータ) (2025-04-10T14:11:24Z) - Human-LLM Coevolution: Evidence from Academic Writing [0.0]
We report a marked drop in the frequency of several words before previously identifieded by ChatGPT, such as "delve"。
ChatGPTで好まれる「重要な」単語の頻度は増加し続けている。
論文 参考訳(メタデータ) (2025-02-13T18:55:56Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - MAGNIFICo: Evaluating the In-Context Learning Ability of Large Language
Models to Generalize to Novel Interpretations [37.13707912132472]
人間は言語表現に新しい解釈を割り当てる素晴らしい能力を持っている。
大きな言語モデル(LLM)は知識の切り離しを持ち、何度も微調整を繰り返すのに費用がかかる。
我々は,LLMが文脈内学習を用いて新しい解釈を習得する能力を体系的に分析する。
論文 参考訳(メタデータ) (2023-10-18T00:02:38Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。