論文の概要: FRONTIER-RevRec: A Large-scale Dataset for Reviewer Recommendation
- arxiv url: http://arxiv.org/abs/2510.16597v1
- Date: Sat, 18 Oct 2025 17:52:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.056854
- Title: FRONTIER-RevRec: A Large-scale Dataset for Reviewer Recommendation
- Title(参考訳): FRONTIER-RevRec:レビュアレコメンデーションのための大規模データセット
- Authors: Qiyao Peng, Chen Wang, Yinghui Wang, Hongtao Liu, Xuan Guo, Wenjun Wang,
- Abstract要約: FRONTIER-RevRecは、Frontiersのオープンアクセスパブリッシングプラットフォームから2007-2025年にかけて作られた大規模なデータセットである。
データセットには177941の異なるレビュアーと、複数の分野にまたがる209のジャーナルにわたる478379の論文が含まれている。
- 参考スコア(独自算出の注目度): 15.014715782460192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reviewer recommendation is a critical task for enhancing the efficiency of academic publishing workflows. However, research in this area has been persistently hindered by the lack of high-quality benchmark datasets, which are often limited in scale, disciplinary scope, and comparative analyses of different methodologies. To address this gap, we introduce FRONTIER-RevRec, a large-scale dataset constructed from authentic peer review records (2007-2025) from the Frontiers open-access publishing platform https://www.frontiersin.org/. The dataset contains 177941 distinct reviewers and 478379 papers across 209 journals spanning multiple disciplines including clinical medicine, biology, psychology, engineering, and social sciences. Our comprehensive evaluation on this dataset reveals that content-based methods significantly outperform collaborative filtering. This finding is explained by our structural analysis, which uncovers fundamental differences between academic recommendation and commercial domains. Notably, approaches leveraging language models are particularly effective at capturing the semantic alignment between a paper's content and a reviewer's expertise. Furthermore, our experiments identify optimal aggregation strategies to enhance the recommendation pipeline. FRONTIER-RevRec is intended to serve as a comprehensive benchmark to advance research in reviewer recommendation and facilitate the development of more effective academic peer review systems. The FRONTIER-RevRec dataset is available at: https://anonymous.4open.science/r/FRONTIER-RevRec-5D05.
- Abstract(参考訳): レビューア・レコメンデーションは学術出版ワークフローの効率を高めるための重要なタスクである。
しかし、この分野の研究は、しばしば規模、学際範囲、異なる方法論の比較分析に制限される高品質なベンチマークデータセットの欠如によって、絶え間なく妨げられている。
このギャップに対処するため、FronTIER-RevRecという、Froniersオープンアクセスパブリッシングプラットフォーム https://www.frontiersin.org/ の認証ピアレビューレコード (2007-2025) から構築した大規模なデータセットを紹介した。
このデータセットには177941の別個のレビュアーと、臨床医学、生物学、心理学、工学、社会科学を含む複数の分野にまたがる209の学術雑誌に478379の論文が含まれている。
このデータセットに対する包括的評価は、コンテンツベースの手法が協調フィルタリングを著しく上回っていることを示している。
この発見は、学術勧告と商業領域の根本的な違いを明らかにする構造解析によって説明される。
特に、言語モデルを活用するアプローチは、特に論文の内容とレビュアーの専門知識のセマンティックアライメントを捉えるのに効果的である。
さらに,提案実験では,レコメンデーションパイプラインを強化するための最適なアグリゲーション戦略を明らかにした。
FRONTIER-RevRecは、レビュアーレコメンデーションの研究を進め、より効果的な学術的ピアレビューシステムの開発を促進するための総合的なベンチマークとして機能することを目的としている。
FRONTIER-RevRecデータセットは、https://anonymous.4open.science/r/FRONTIER-RevRec-5D05で公開されている。
関連論文リスト
- AutoRev: Multi-Modal Graph Retrieval for Automated Peer-Review Generation [5.72767946092813]
AutoRevは自動ピアレビューシステムで、レビュアーと著者の両方に実用的な高品質のフィードバックを提供するように設計されている。
ドキュメントをグラフとしてモデル化することで、AutoRevは、最も関連する情報を効果的に取得する。
AutoRevはピアレビューワークフローを合理化し、課題を緩和し、スケーラブルで高品質な学術出版を可能にする強力なツールだと考えています。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - exHarmony: Authorship and Citations for Benchmarking the Reviewer Assignment Problem [11.763640675057076]
明示的なラベルを必要とせずにレビュアー代入問題を評価するためのベンチマークデータセットを開発した。
従来の語彙マッチング、静的なニューラル埋め込み、文脈化されたニューラル埋め込みなど、さまざまな手法をベンチマークする。
本研究は,従来の手法が合理的に良好に機能する一方で,学術文献で訓練された文脈的埋め込みが最高の性能を示すことを示すものである。
論文 参考訳(メタデータ) (2025-02-11T16:35:04Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond [68.47402386668846]
本研究では,テキストアセスメントをステップワイド推論プロセスとしてモデル化するために,Structured Reasoning In Critical Text Assessment (STRICTA)を導入する。
STRICTAは、因果性理論に基づく相互接続推論ステップのグラフに評価を分解する。
約40人のバイオメディカル専門家が20以上の論文について4000以上の推論ステップのデータセットにSTRICTAを適用した。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Reenvisioning Collaborative Filtering vs Matrix Factorization [65.74881520196762]
近年,行列因数分解に基づく協調フィルタリングモデルや,ニューラルネットワーク(ANN)を用いた類似性の学習が注目されている。
推薦エコシステム内でのANNの発表が最近疑問視され、効率性と有効性に関していくつかの比較がなされている。
本研究では,これらの手法が相補的評価次元に与える影響を解析しながら,超精度評価にもたらす可能性を示す。
論文 参考訳(メタデータ) (2021-07-28T16:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。