論文の概要: Who Gets Seen in the Age of AI? Adoption Patterns of Large Language Models in Scholarly Writing and Citation Outcomes
- arxiv url: http://arxiv.org/abs/2509.08306v1
- Date: Wed, 10 Sep 2025 06:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 17:24:19.829409
- Title: Who Gets Seen in the Age of AI? Adoption Patterns of Large Language Models in Scholarly Writing and Citation Outcomes
- Title(参考訳): AIの時代に誰がヒントを得たか : 学際的な文章作成とCitationアウトカムにおける大規模言語モデルの導入パターン
- Authors: Farhan Kamrul Khan, Hazem Ibrahim, Nouar Aldahoul, Talal Rahwan, Yasir Zaki,
- Abstract要約: グローバルイーストの著者は、AIツールをより積極的に採用するが、西洋の著者は「人間に似た」文章に対して、既に存在する罰則により、採用単位当たりの利益を得る。
先行する雑誌は、より人間らしい文章を特権化し続け、可視性とゲートキーピングの間に緊張を生じさせ続けている。
- 参考スコア(独自算出の注目度): 1.5702201012657682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid adoption of generative AI tools is reshaping how scholars produce and communicate knowledge, raising questions about who benefits and who is left behind. We analyze over 230,000 Scopus-indexed computer science articles between 2021 and 2025 to examine how AI-assisted writing alters scholarly visibility across regions. Using zero-shot detection of AI-likeness, we track stylistic changes in writing and link them to citation counts, journal placement, and global citation flows before and after ChatGPT. Our findings reveal uneven outcomes: authors in the Global East adopt AI tools more aggressively, yet Western authors gain more per unit of adoption due to pre-existing penalties for "humanlike" writing. Prestigious journals continue to privilege more human-sounding texts, creating tensions between visibility and gatekeeping. Network analyses show modest increases in Eastern visibility and tighter intra-regional clustering, but little structural integration overall. These results highlight how AI adoption reconfigures the labor of academic writing and reshapes opportunities for recognition.
- Abstract(参考訳): 生成AIツールの急速な採用は、学者が知識を創造し、伝達する方法を変え、誰が利益を得るのか、誰が残されているのかという疑問を提起することである。
我々は2021年から2025年にかけて、22万件以上のScopusをインデクシングしたコンピュータサイエンスの記事を分析し、AI支援による筆記が各地の学術的可視性をどう変えるかを調べる。
AI類似性のゼロショット検出を用いて、書字のスタイル変化を追跡し、ChatGPT前後の引用数、ジャーナル配置、グローバル引用フローにリンクする。
グローバルイーストの著者はAIツールをより積極的に採用するが、西洋の著者は「人間に似た」文章に対して、既に存在する罰則により、採用単位当たりの利益を得る。
先行する雑誌は、より人間らしい文章を特権化し続け、可視性とゲートキーピングの間に緊張を生じさせ続けている。
ネットワーク分析は、東部の視認性と地域内クラスタリングの密接な増加を示すが、全体的な構造的な統合はほとんどない。
これらの結果は、AIの採用が学術的な文章作成の労力を再構成し、認識の機会を享受する方法を浮き彫りにしている。
関連論文リスト
- Computational Approaches to Understanding Large Language Model Impact on Writing and Information Ecosystems [10.503784446147122]
大規模言語モデル(LLM)は、私たちがどのように書き、コミュニケーションし、作成するかを変える大きな可能性を示しています。
この論文は、個人や機関がこの新興技術にどのように適応し、関与しているかを調べます。
論文 参考訳(メタデータ) (2025-06-20T20:15:09Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Perceptions and Detection of AI Use in Manuscript Preparation for
Academic Journals [1.881901067333374]
大規模言語モデル(LLM)は、AIが学術的な文章にどのように影響するかを興奮と心配の両方を生み出している。
学術出版物の著者は、原稿の改訂に使用するAIツールを自発的に開示するかもしれない。
ジャーナルやカンファレンスは、開示を義務付けるか、あるいは検出サービスを使用するようにします。
論文 参考訳(メタデータ) (2023-11-19T06:04:46Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - ChatGPT or academic scientist? Distinguishing authorship with over 99%
accuracy using off-the-shelf machine learning tools [0.0]
ChatGPTは、大衆向けのAI生成書き込みへのアクセスを可能にした。
人間の文章をAIから区別する必要性は、今、重要かつ緊急である。
そこで我々は,ChatGPTが生成したテキストを(人間)学術科学者から識別する手法を開発した。
論文 参考訳(メタデータ) (2023-03-28T23:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。