論文の概要: When a Paper Has 1000 Authors: Rethinking Citation Metrics in the Era of LLMs
- arxiv url: http://arxiv.org/abs/2508.06004v1
- Date: Fri, 08 Aug 2025 04:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.076469
- Title: When a Paper Has 1000 Authors: Rethinking Citation Metrics in the Era of LLMs
- Title(参考訳): 論文に1000人の著者がいるとき: LLMの時代におけるCitation Metricsの再考
- Authors: Weihang Guo, Zhao Song, Jiahao Zhang,
- Abstract要約: 著者レベルの引用メトリクスは、複雑な研究エコシステムにおける学術的影響の実践的で解釈可能でスケーラブルなシグナルを提供する。
過去5年間、大規模な言語モデルと基礎モデルの分野において、大規模な出版物が急速に出現してきた。
本稿では,SBCIインデックスを提案し,その理論的特性を分析し,その挙動を合成出版データセット上で評価する。
- 参考スコア(独自算出の注目度): 11.503915439591735
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Author-level citation metrics provide a practical, interpretable, and scalable signal of scholarly influence in a complex research ecosystem. It has been widely used as a proxy in hiring decisions. However, the past five years have seen the rapid emergence of large-scale publications in the field of large language models and foundation models, with papers featuring hundreds to thousands of co-authors and receiving tens of thousands of citations within months. For example, Gemini has 1361 authors and has been cited around 4600 times in 19 months. In such cases, traditional metrics, such as total citation count and the $h$-index, fail to meaningfully distinguish individual contributions. Therefore, we propose the following research question: How can one identify standout researchers among thousands of co-authors in large-scale LLM papers? This question is particularly important in scenarios such as academic hiring and funding decisions. In this paper, we introduce a novel citation metric designed to address this challenge by balancing contributions across large-scale and small-scale publications. We propose the SBCI index, analyze its theoretical properties, and evaluate its behavior on synthetic publication datasets. Our results demonstrate that the proposed metric provides a more robust and discriminative assessment of individual scholarly impact in the era of large-scale collaborations.
- Abstract(参考訳): 著者レベルの引用メトリクスは、複雑な研究エコシステムにおける学術的影響の実践的で解釈可能でスケーラブルなシグナルを提供する。
雇用決定の代理として広く使われている。
しかし、過去5年間、大規模な言語モデルや基礎モデルの分野で大規模な出版物が急速に出現し、数百から数千人の共著者が参加し、数ヶ月のうちに数万件の引用を受け取っている。
例えば、ジェミニには1361人の著者がおり、19ヶ月で4600回ほど引用されている。
このような場合、総引用数や$h$-indexといった伝統的なメトリクスは、個々のコントリビューションを有意義に区別することができない。
そこで本稿では, 大規模LLM論文において, 何千人もの共著者の中から, 研究者をどうやって特定できるのか, という疑問を提起する。
この問題は、学術的な雇用や資金調達決定のようなシナリオにおいて特に重要である。
本稿では,大規模・小規模の出版物間のコントリビューションのバランスをとることで,この課題に対処する新しい引用基準を提案する。
本稿では,SBCIインデックスを提案し,その理論的特性を分析し,その挙動を合成出版データセット上で評価する。
提案手法は,大規模コラボレーションの時代における学術的影響を,より堅牢かつ差別的に評価するものであることを示す。
関連論文リスト
- Does GenAI Rewrite How We Write? An Empirical Study on Two-Million Preprints [15.070885964897734]
生成型大規模言語モデル(LLM)は、原稿の書き方を変えることによって、さらなる破壊をもたらす可能性がある。
本稿は、2016年から2025年(115ヶ月)にかけての2100万件以上のプレプリントを4つの主要なリポジトリで大規模に分析することで、このギャップを解消する。
以上の結果から,LSMは提出サイクルと修正サイクルを加速し,言語的複雑性が緩やかに増加し,AI関連トピックが不均等に拡大したことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-18T01:37:40Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Position: AI/ML Influencers Have a Place in the Academic Process [82.2069685579588]
機械学習研究の可視性向上におけるソーシャルメディアインフルエンサーの役割について検討する。
2018年12月から2023年10月までの間に、8000以上の論文の包括的なデータセットを収集しました。
我々の統計的および因果推論分析は、これらのインフルエンサーが支持する論文の引用が著しく増加することを示している。
論文 参考訳(メタデータ) (2024-01-24T20:05:49Z) - CausalCite: A Causal Formulation of Paper Citations [80.82622421055734]
CausalCiteは紙の意義を測定するための新しい方法だ。
これは、従来のマッチングフレームワークを高次元のテキスト埋め込みに適応させる、新しい因果推論手法であるTextMatchに基づいている。
科学専門家が報告した紙衝撃と高い相関性など,各種基準におけるCausalCiteの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Fusion of the Power from Citations: Enhance your Influence by Integrating Information from References [3.607567777043649]
本研究は,ある論文が学者の影響力を高めることができるか否かを判断するために,予測問題を定式化することを目的とする。
この研究にこの枠組みを適用することで、研究者は自分の論文が将来の影響力を高めることができるかどうかを特定できる。
論文 参考訳(メタデータ) (2023-10-27T19:51:44Z) - A Measure of Research Taste [91.3755431537592]
生産性と味の両方に報いる引用に基づく尺度を提案する。
提示された尺度capは、出版物とその量の影響のバランスをとる。
本研究では, 生物学, 計算機科学, 経済学, 物理分野の研究者を対象に, capの特性を解析した。
論文 参考訳(メタデータ) (2021-05-17T18:01:47Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - Early Indicators of Scientific Impact: Predicting Citations with
Altmetrics [0.0]
altmetricsを使って、学術的な出版物が得る短期的および長期的な引用を予測する。
我々は,様々な分類モデルと回帰モデルを構築し,それらの性能を評価し,それらのタスクに最適なニューラルネットワークとアンサンブルモデルを見つける。
論文 参考訳(メタデータ) (2020-12-25T16:25:07Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。