論文の概要: Hidden Division of Labor in Scientific Teams Revealed Through 1.6 Million LaTeX Files
- arxiv url: http://arxiv.org/abs/2502.07263v1
- Date: Tue, 11 Feb 2025 05:07:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:06:40.462450
- Title: Hidden Division of Labor in Scientific Teams Revealed Through 1.6 Million LaTeX Files
- Title(参考訳): LaTeXの160万のファイルから科学チームの隠れた研究部門が発見
- Authors: Jiaxin Pei, Lulin Yang, Lingfei Wu,
- Abstract要約: 我々は、著者固有のマクロを、160万の論文(1991-2023)から200万の科学者によって分析した。
明示的なセクション情報を用いて、科学チーム内の労働の隠れた区分を明らかにする。
- 参考スコア(独自算出の注目度): 37.77089168249056
- License:
- Abstract: Recognition of individual contributions is fundamental to the scientific reward system, yet coauthored papers obscure who did what. Traditional proxies-author order and career stage-reinforce biases, while contribution statements remain self-reported and limited to select journals. We construct the first large-scale dataset on writing contributions by analyzing author-specific macros in LaTeX files from 1.6 million papers (1991-2023) by 2 million scientists. Validation against self-reported statements (precision = 0.87), author order patterns, field-specific norms, and Overleaf records (Spearman's rho = 0.6, p < 0.05) confirms the reliability of the created data. Using explicit section information, we reveal a hidden division of labor within scientific teams: some authors primarily contribute to conceptual sections (e.g., Introduction and Discussion), while others focus on technical sections (e.g., Methods and Experiments). These findings provide the first large-scale evidence of implicit labor division in scientific teams, challenging conventional authorship practices and informing institutional policies on credit allocation.
- Abstract(参考訳): 個人の貢献の認識は、科学的な報酬体系の基本であるが、誰が何をしたかは明らかでない。
従来のプロキシー著者の注文とキャリアステージの強化バイアスは自己申告され、特定の雑誌に限られている。
我々は,LaTeXファイル中の著者固有のマクロを,科学者200万人による1.6万枚の論文(1991-2023年)から分析し,コントリビューションに関する最初の大規模データセットを構築した。
自己報告されたステートメント(精度 = 0.87)、著者の順序パターン、フィールド固有のノルム、オーバーリーフレコード(スピアマンのrho = 0.6, p < 0.05)に対する検証は、生成されたデータの信頼性を確認する。
いくつかの著者は、明示的なセクション情報を用いて、主に概念的セクション(例えば、導入と議論)に寄与し、他の著者は技術的なセクション(例えば、方法と実験)に焦点を当てている。
これらの知見は、科学チームにおける暗黙の労働区分の大規模な証拠となり、従来の権威主義の実践に挑戦し、信用配分に関する制度的な政策を指示した。
関連論文リスト
- Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - TDMSci: A Specialized Corpus for Scientific Literature Entity Tagging of
Tasks Datasets and Metrics [32.4845534482475]
NLP論文から抽出した2000の文に対して、タスク(T)、データセット(D)、メトリック(M)エンティティのドメインエキスパートアノテーションを含む新しいコーパスを提案する。
簡便なデータ拡張戦略を用いたtdm抽出実験の結果を報告し,aclから約30,000のnlp論文に適用した。
論文 参考訳(メタデータ) (2021-01-25T17:54:06Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。