論文の概要: Submission-Aware Reviewer Profiling for Reviewer Recommender System
- arxiv url: http://arxiv.org/abs/2211.04194v1
- Date: Tue, 8 Nov 2022 12:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:55:11.197935
- Title: Submission-Aware Reviewer Profiling for Reviewer Recommender System
- Title(参考訳): レビュアーレコメンデーションシステムのための投稿認識レビュアープロファイリング
- Authors: Omer Anjum, Alok Kamatar, Toby Liang, Jinjun Xiong, Wen-mei Hwu
- Abstract要約: 本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究対象とする明示的な文脈を学習する手法を提案する。
実験の結果,既存手法と比較して精度が向上した。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。
- 参考スコア(独自算出の注目度): 26.382772998002523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Assigning qualified, unbiased and interested reviewers to paper submissions
is vital for maintaining the integrity and quality of the academic publishing
system and providing valuable reviews to authors. However, matching thousands
of submissions with thousands of potential reviewers within a limited time is a
daunting challenge for a conference program committee. Prior efforts based on
topic modeling have suffered from losing the specific context that help define
the topics in a publication or submission abstract. Moreover, in some cases,
topics identified are difficult to interpret. We propose an approach that
learns from each abstract published by a potential reviewer the topics studied
and the explicit context in which the reviewer studied the topics. Furthermore,
we contribute a new dataset for evaluating reviewer matching systems. Our
experiments show a significant, consistent improvement in precision when
compared with the existing methods. We also use examples to demonstrate why our
recommendations are more explainable. The new approach has been deployed
successfully at top-tier conferences in the last two years.
- Abstract(参考訳): 学術出版システムの完全性と品質を維持し、著者に貴重なレビューを提供するには、適格で偏りのない、興味のないレビュワーを論文提出者に割り当てることが不可欠である。
しかし、数千の応募と数千の潜在的なレビュアーを限られた時間内に一致させることは、カンファレンスプログラム委員会にとって大きな課題である。
トピックモデリングに基づく先行的な取り組みは、公開または提出の抽象的なトピックを定義するのに役立つ特定のコンテキストを失うことに苦しめられている。
さらに、特定されたトピックの解釈が難しい場合もある。
本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究する明示的な文脈を学習する手法を提案する。
さらに,レビュアーマッチングシステムを評価するための新しいデータセットを提案する。
実験の結果,既存の手法と比較して精度が大幅に向上した。
また、なぜ勧告がより説明しやすいのかを示すために例を使っています。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。
関連論文リスト
- exHarmony: Authorship and Citations for Benchmarking the Reviewer Assignment Problem [11.763640675057076]
明示的なラベルを必要とせずにレビュアー代入問題を評価するためのベンチマークデータセットを開発した。
従来の語彙マッチング、静的なニューラル埋め込み、文脈化されたニューラル埋め込みなど、さまざまな手法をベンチマークする。
本研究は,従来の手法が合理的に良好に機能する一方で,学術文献で訓練された文脈的埋め込みが最高の性能を示すことを示すものである。
論文 参考訳(メタデータ) (2025-02-11T16:35:04Z) - GLIMPSE: Pragmatically Informative Multi-Document Summarization for Scholarly Reviews [25.291384842659397]
本稿では,学術レビューの簡潔かつ包括的概要を提供するための要約手法であるsysを紹介する。
従来のコンセンサスに基づく手法とは異なり、sysは共通の意見とユニークな意見の両方をレビューから抽出する。
論文 参考訳(メタデータ) (2024-06-11T15:27:01Z) - CASIMIR: A Corpus of Scientific Articles enhanced with Multiple Author-Integrated Revisions [7.503795054002406]
本稿では,学術論文の執筆過程の改訂段階について,原文資料を提案する。
この新しいデータセットはCASIMIRと呼ばれ、OpenReviewの15,646の科学論文の改訂版とピアレビューを含んでいる。
論文 参考訳(メタデータ) (2024-03-01T03:07:32Z) - When Reviewers Lock Horn: Finding Disagreement in Scientific Peer
Reviews [24.875901048855077]
本稿では,ある記事のレビュアー間での矛盾を自動的に識別する新しいタスクを紹介する。
我々の知識を最大限に活用するために、ピアレビュアー間での意見の不一致を自動的に識別する最初の試みを行う。
論文 参考訳(メタデータ) (2023-10-28T11:57:51Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Measuring "Why" in Recommender Systems: a Comprehensive Survey on the
Evaluation of Explainable Recommendation [87.82664566721917]
この調査は、IJCAI、AAAI、TheWebConf、Recsys、UMAP、IUIといったトップレベルのカンファレンスから100以上の論文に基づいています。
論文 参考訳(メタデータ) (2022-02-14T02:58:55Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。