論文の概要: LLM-Generated or Human-Written? Comparing Review and Non-Review Papers on ArXiv
- arxiv url: http://arxiv.org/abs/2601.17036v1
- Date: Mon, 19 Jan 2026 21:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.012104
- Title: LLM-Generated or Human-Written? Comparing Review and Non-Review Papers on ArXiv
- Title(参考訳): LLM-Generated or Human-Written? : ArXivのレビュー論文と非レビュー論文の比較
- Authors: Yanai Elazar, Maria Antoniak,
- Abstract要約: ArXivは最近、コンピュータサイエンス分野のサーバーに未発表のレビュー論文のアップロードを禁止した。
本研究では,LLM生成コンテンツの割合を非レビュー研究論文と比較することにより,この主張を考察する。
このポリシーは他のドメインよりもはるかに多くの論文に影響を及ぼし、CSのサブディシプリルコンピュータ&ソサエティは50%の削減に直面している可能性がある。
- 参考スコア(独自算出の注目度): 16.210242433547577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ArXiv recently prohibited the upload of unpublished review papers to its servers in the Computer Science domain, citing a high prevalence of LLM-generated content in these categories. However, this decision was not accompanied by quantitative evidence. In this work, we investigate this claim by measuring the proportion of LLM-generated content in review vs. non-review research papers in recent years. Using two high-quality detection methods, we find a substantial increase in LLM-generated content across both review and non-review papers, with a higher prevalence in review papers. However, when considering the number of LLM-generated papers published in each category, the estimates of non-review LLM-generated papers are almost six times higher. Furthermore, we find that this policy will affect papers in certain domains far more than others, with the CS subdiscipline Computers & Society potentially facing cuts of 50%. Our analysis provides an evidence-based framework for evaluating such policy decisions, and we release our code to facilitate future investigations at: https://github.com/yanaiela/llm-review-arxiv.
- Abstract(参考訳): ArXivは最近、これらのカテゴリにおけるLCM生成コンテンツの普及を理由に、コンピュータサイエンスドメインのサーバーに未発表のレビュー論文のアップロードを禁止した。
しかし、この決定には定量的な証拠が伴わなかった。
本研究では,近年の非レビュー研究論文と比較して,LCM生成内容の割合を計測することで,この主張を考察する。
2つの高品質な検出手法を用いて、レビュー論文と非レビュー論文の両方において、LCM生成コンテンツが大幅に増加し、レビュー論文では高い頻度で人気が得られた。
しかし、各カテゴリで発行されるLCM生成論文の数を考えると、非レビューLCM生成論文の見積もりは、ほぼ6倍である。
さらに、このポリシーは他のドメインよりもはるかに多くの論文に影響を及ぼし、CSのサブディシプリルコンピュータ&ソサエティは50%の削減に直面している可能性がある。
我々の分析は、このような政策決定を評価するためのエビデンスベースのフレームワークを提供し、将来の調査を促進するために、コードをリリースします。
関連論文リスト
- Fine Grained Evaluation of LLMs-as-Judges [1.5267938856942276]
大規模言語モデル(LLM)は、人間の代用として用いられる。
我々は、LCMの質を、文書レベルだけでなく、これらの判断が正しい理由のためにどれだけの頻度で正しいかを定量化するためにも、裁判官として評価する。
論文 参考訳(メタデータ) (2026-01-13T19:01:16Z) - Gen-Review: A Large-scale Dataset of AI-Generated (and Human-written) Peer Reviews [7.138338798002387]
我々は LLM によるレビューを含む最大のデータセットである GenReview を提示する。
私たちのデータセットには、2018年から2025年にかけてのICLRのすべてのサブミッションに対して生成される81Kのレビューが含まれています。
GenReviewの価値を説明するために、興味深い研究質問のサンプルを探索する。
論文 参考訳(メタデータ) (2025-10-24T06:54:27Z) - LLM-REVal: Can We Trust LLM Reviewers Yet? [70.58742663985652]
大規模言語モデル(LLM)は研究者に、学術的なワークフローに広く組み込むよう刺激を与えている。
本研究は、LLMのピアレビューと研究プロセスへの深い統合が学術的公正性にどのように影響するかに焦点を当てる。
論文 参考訳(メタデータ) (2025-10-14T10:30:20Z) - ArXivBench: When You Should Avoid Using ChatGPT for Academic Writing [6.586119023242877]
大規模言語モデル(LLM)は推論と質問応答において強力な能力を示す。
事実的に誤ったコンテンツを生み出す傾向は、依然として重要な課題である。
本研究は,arXivの正確なリンクを持つ関連研究論文を生成するための,プロプライエタリかつオープンソース LLM の評価を行う。
論文 参考訳(メタデータ) (2025-04-06T05:00:10Z) - Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - AI-Driven Review Systems: Evaluating LLMs in Scalable and Bias-Aware Academic Reviews [18.50142644126276]
我々は,人選好のアリーナを用いて,人選好と自動レビューのアライメントを評価する。
我々は、LLMを微調整して人間の好みを予測し、LLM同士の真っ向からの戦いにおいて、どのレビューが好まれるかを予測する。
我々は、公開可能なarXivおよびオープンアクセスのNatureジャーナルのレビューをオンラインで公開し、著者が研究論文をレビューし、改訂し、品質を改善するのに役立つ無料サービスを提供しています。
論文 参考訳(メタデータ) (2024-08-19T19:10:38Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。