論文の概要: ICLR Points: How Many ICLR Publications Is One Paper in Each Area?
- arxiv url: http://arxiv.org/abs/2503.16623v2
- Date: Tue, 25 Mar 2025 00:17:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 10:44:00.764958
- Title: ICLR Points: How Many ICLR Publications Is One Paper in Each Area?
- Title(参考訳): ICLRポイント: それぞれの領域に何冊のICLRパブリケーションがあるか?
- Authors: Zhongtang Luo,
- Abstract要約: ICLRポイントの概念を導入し、トップレベルの機械学習カンファレンスで1つの出版物を作成するのに必要な平均的な労力として定義します。
我々は,27のコンピュータサイエンス分野における平均出版活動量を定量的に測定し,比較した。
本分析では, 平均的な出版活動に有意な差が見られ, 逸話的認識の妥当性が検証された。
- 参考スコア(独自算出の注目度): 0.8702432681310401
- License:
- Abstract: Scientific publications significantly impact academic-related decisions in computer science, where top-tier conferences are particularly influential. However, efforts required to produce a publication differ drastically across various subfields. While existing citation-based studies compare venues within areas, cross-area comparisons remain challenging due to differing publication volumes and citation practices. To address this gap, we introduce the concept of ICLR points, defined as the average effort required to produce one publication at top-tier machine learning conferences such as ICLR, ICML, and NeurIPS. Leveraging comprehensive publication data from DBLP (2019--2023) and faculty information from CSRankings, we quantitatively measure and compare the average publication effort across 27 computer science sub-areas. Our analysis reveals significant differences in average publication effort, validating anecdotal perceptions: systems conferences generally require more effort per publication than AI conferences. We further demonstrate the utility of the ICLR points metric by evaluating publication records of universities, current faculties and recent faculty candidates. Our findings highlight how using this metric enables more meaningful cross-area comparisons in academic evaluation processes. Lastly, we discuss the metric's limitations and caution against its misuse, emphasizing the necessity of holistic assessment criteria beyond publication metrics alone.
- Abstract(参考訳): 科学出版物は、最上位の会議が特に影響力のあるコンピュータ科学における学術的な決定に大きな影響を及ぼす。
しかし、出版に必要な努力は、様々なサブフィールドで大きく異なる。
既存の引用に基づく研究は、地域内の場所を比較するが、出版量や引用の慣行が異なるため、地域間比較は難しいままである。
このギャップに対処するために、ICLR、ICML、NeurIPSといったトップレベルの機械学習カンファレンスで1つの出版物を作成するのに必要な平均的な労力として定義されるICLRポイントの概念を紹介します。
我々は,DBLP(2019-2023)の総合出版データとCSRankingsの教員情報を利用して,27のコンピュータサイエンス分野における平均出版活動量を定量的に測定し,比較した。
システムカンファレンスは一般的に、AIカンファレンスよりも出版1件当たりの労力を必要とします。
さらに、大学、現在の学部、最近の教員候補の公開記録を評価することで、ICLRポイント測定の有用性を実証する。
本研究は,学術的評価プロセスにおいて,この指標を用いることにより,より意味のある地域間比較が可能となることを示す。
最後に,その誤用に対する指標の限界と注意点について論じ,出版基準以外の総合評価基準の必要性を強調した。
関連論文リスト
- Analysis of the ICML 2023 Ranking Data: Can Authors' Opinions of Their Own Papers Assist Peer Review in Machine Learning? [52.00419656272129]
我々は2023年の国際機械学習会議(ICML)で実験を行った。
我々はそれぞれ2,592件の応募書を含む1,342件のランク付けを受けた。
著者によるランキングを用いて生のレビュースコアを校正するイソトニックメカニズムに注目した。
論文 参考訳(メタデータ) (2024-08-24T01:51:23Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - Position: AI/ML Influencers Have a Place in the Academic Process [82.2069685579588]
機械学習研究の可視性向上におけるソーシャルメディアインフルエンサーの役割について検討する。
2018年12月から2023年10月までの間に、8000以上の論文の包括的なデータセットを収集しました。
我々の統計的および因果推論分析は、これらのインフルエンサーが支持する論文の引用が著しく増加することを示している。
論文 参考訳(メタデータ) (2024-01-24T20:05:49Z) - Analyzing the Impact of Companies on AI Research Based on Publications [1.450405446885067]
私たちは、過去10年間に出版された学術的および企業公認のAIパブリッシングを比較します。
個々の出版物が受ける引用回数は、会社によって(共著)される場合、著しく高いことが分かりました。
論文 参考訳(メタデータ) (2023-10-31T13:27:04Z) - Analyzing the State of Computer Science Research with the DBLP Discovery
Dataset [0.0]
我々は、CSメタデータに隠された暗黙のパターンを明らかにするために、サイエントメトリック分析を行う。
各種ダッシュボード,フィルタ,ビジュアライゼーションを用いてCS出版物を解析するインタラクティブWebアプリケーションであるCS-Insightsシステムを紹介した。
D3とCS-Insightsはどちらもオープンアクセス可能で、CS-Insightsは将来的に他のデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2022-12-01T16:27:42Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Topic Space Trajectories: A case study on machine learning literature [0.0]
本稿では,研究トピックの包括的追跡を可能にする構造であるトピック空間トラジェクトリを提案する。
我々は,32の出版会場から50年間の機械学習研究を対象とする出版コーパスへのアプローチの適用性を示した。
本手法は,論文分類,今後の研究課題の予測,未発表の論文提出のための会議や雑誌の掲載を推奨するために利用することができる。
論文 参考訳(メタデータ) (2020-10-23T10:53:42Z) - A Correspondence Analysis Framework for Author-Conference
Recommendations [2.1055643409860743]
我々は、会議や論文など、問題のエンティティ間の適切な関係を導出するために、対応分析(CA)を利用する。
本モデルは,コンテンツベースフィルタリング,協調フィルタリング,ハイブリッドフィルタリングなどの既存手法と比較して有望な結果を示す。
論文 参考訳(メタデータ) (2020-01-08T18:52:39Z) - The Demise of Single-Authored Publications in Computer Science: A
Citation Network Analysis [0.0]
私は1940年から2019年までのコンピュータサイエンス文学における単行本の役割を研究するためにDBLPデータベースを分析した。
著者の人口比率、引用統計、一冊の出版物のスコアを計算して、人口統計と受容率について検討する。
論文 参考訳(メタデータ) (2020-01-02T07:47:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。