論文の概要: "Why Should I Review This Paper?" Unifying Semantic, Topic, and Citation
Factors for Paper-Reviewer Matching
- arxiv url: http://arxiv.org/abs/2310.14483v1
- Date: Mon, 23 Oct 2023 01:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:20:11.554888
- Title: "Why Should I Review This Paper?" Unifying Semantic, Topic, and Citation
Factors for Paper-Reviewer Matching
- Title(参考訳): 「なぜこの論文をレビューすべきなのか?」
論文レビュー者マッチングのための意味・話題・引用要素の統一化
- Authors: Yu Zhang, Yanzhen Shen, Xiusi Chen, Bowen Jin, Jiawei Han
- Abstract要約: 本稿では,意味的,話題的,引用的要素を協調的にキャプチャする,論文レビューアマッチングのための統一モデルを提案する。
提案したUniPRモデルと最先端のペーパーリビューアマッチング手法を比較検討した。
- 参考スコア(独自算出の注目度): 31.658757187200603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As many academic conferences are overwhelmed by a rapidly increasing number
of paper submissions, automatically finding appropriate reviewers for each
submission becomes a more urgent need than ever. Various factors have been
considered by previous attempts on this task to measure the expertise relevance
between a paper and a reviewer, including whether the paper is semantically
close to, shares topics with, and cites previous papers of the reviewer.
However, the majority of previous studies take only one of these factors into
account, leading to an incomprehensive evaluation of paper-reviewer relevance.
To bridge this gap, in this paper, we propose a unified model for
paper-reviewer matching that jointly captures semantic, topic, and citation
factors. In the unified model, a contextualized language model backbone is
shared by all factors to learn common knowledge, while instruction tuning is
introduced to characterize the uniqueness of each factor by producing
factor-aware paper embeddings. Experiments on four datasets (one of which is
newly contributed by us) across different fields, including machine learning,
computer vision, information retrieval, and data mining, consistently validate
the effectiveness of our proposed UniPR model in comparison with
state-of-the-art paper-reviewer matching methods and scientific pre-trained
language models.
- Abstract(参考訳): 多くの学術会議が論文提出の急増に圧倒されているため、各論文に対する適切なレビュアーを自動的に見つけることは、これまで以上に緊急に必要となる。
論文がセマンティックに近づき、トピックを共有し、レビュアーの以前の論文を引用するなど、論文とレビュアーの専門的関連性を測定するために、過去の試みによって様々な要因が検討されてきた。
しかし、従来の研究の大半はこれらの要因の1つだけを考慮に入れており、紙レビューの妥当性を包括的に評価している。
このギャップを埋めるため,本稿では,意味的・話題的・引用的要素を共同で捉えた論文レビュー者マッチングの統一モデルを提案する。
統一モデルでは、コンテキスト化された言語モデルバックボーンを共通知識を学習するためのすべての要因で共有し、各要因の独自性を因子認識紙の埋め込みによって特徴付けるように指導調律を導入する。
機械学習,コンピュータビジョン,情報検索,データマイニングなど,さまざまな分野にわたる4つのデータセット(うちの1つは新たにコントリビュートされた)に関する実験は,最新の論文レビュー手法と科学的事前学習された言語モデルと比較して,提案するuniprモデルの有効性を一貫して検証している。
関連論文リスト
- Explaining Relationships Among Research Papers [14.223038413516685]
本稿では,よりリッチな引用テキストを生成するための機能ベースのLLMプロンプト手法を提案する。
人間の好みと統合的書き方の間には強い相関関係がみられ,高いレベルの抽象的引用を好むことが示唆された。
論文 参考訳(メタデータ) (2024-02-20T23:38:39Z) - CausalCite: A Causal Formulation of Paper Citations [54.31994550721541]
本稿では,従来のマッチングフレームワークを高次元テキスト埋め込みに適用する因果推論手法であるTextMatchを提案する。
論文引用の因果的定式化として、CausalCiteと呼ばれる結果の計量を適用した。
本研究は, 科学的専門家が報告した紙衝撃と高い相関性など, 様々な基準で有効性を示す。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Fusion of the Power from Citations: Enhance your Influence by
Integrating Information from References [4.05454464945981]
本研究は,ある論文が学者の影響力を高めることができるか否かを判断するために,予測問題を定式化することを目的とする。
この研究にこの枠組みを適用することで、研究者は自分の論文が将来の影響力を高めることができるかどうかを特定できる。
論文 参考訳(メタデータ) (2023-10-27T19:51:44Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Modeling Endorsement for Multi-Document Abstractive Summarization [10.166639983949887]
単一文書の要約と多文書の要約の重大な違いは、文書の中で健全なコンテンツがどのように現れるかである。
本稿では,複数文書要約における文書間補完効果とその活用をモデル化する。
提案手法は各文書から合成を生成し,他の文書から有意な内容を識別する支援者として機能する。
論文 参考訳(メタデータ) (2021-10-15T03:55:42Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。