論文の概要: "Why Should I Review This Paper?" Unifying Semantic, Topic, and Citation
Factors for Paper-Reviewer Matching
- arxiv url: http://arxiv.org/abs/2310.14483v1
- Date: Mon, 23 Oct 2023 01:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:20:11.554888
- Title: "Why Should I Review This Paper?" Unifying Semantic, Topic, and Citation
Factors for Paper-Reviewer Matching
- Title(参考訳): 「なぜこの論文をレビューすべきなのか?」
論文レビュー者マッチングのための意味・話題・引用要素の統一化
- Authors: Yu Zhang, Yanzhen Shen, Xiusi Chen, Bowen Jin, Jiawei Han
- Abstract要約: 本稿では,意味的,話題的,引用的要素を協調的にキャプチャする,論文レビューアマッチングのための統一モデルを提案する。
提案したUniPRモデルと最先端のペーパーリビューアマッチング手法を比較検討した。
- 参考スコア(独自算出の注目度): 31.658757187200603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As many academic conferences are overwhelmed by a rapidly increasing number
of paper submissions, automatically finding appropriate reviewers for each
submission becomes a more urgent need than ever. Various factors have been
considered by previous attempts on this task to measure the expertise relevance
between a paper and a reviewer, including whether the paper is semantically
close to, shares topics with, and cites previous papers of the reviewer.
However, the majority of previous studies take only one of these factors into
account, leading to an incomprehensive evaluation of paper-reviewer relevance.
To bridge this gap, in this paper, we propose a unified model for
paper-reviewer matching that jointly captures semantic, topic, and citation
factors. In the unified model, a contextualized language model backbone is
shared by all factors to learn common knowledge, while instruction tuning is
introduced to characterize the uniqueness of each factor by producing
factor-aware paper embeddings. Experiments on four datasets (one of which is
newly contributed by us) across different fields, including machine learning,
computer vision, information retrieval, and data mining, consistently validate
the effectiveness of our proposed UniPR model in comparison with
state-of-the-art paper-reviewer matching methods and scientific pre-trained
language models.
- Abstract(参考訳): 多くの学術会議が論文提出の急増に圧倒されているため、各論文に対する適切なレビュアーを自動的に見つけることは、これまで以上に緊急に必要となる。
論文がセマンティックに近づき、トピックを共有し、レビュアーの以前の論文を引用するなど、論文とレビュアーの専門的関連性を測定するために、過去の試みによって様々な要因が検討されてきた。
しかし、従来の研究の大半はこれらの要因の1つだけを考慮に入れており、紙レビューの妥当性を包括的に評価している。
このギャップを埋めるため,本稿では,意味的・話題的・引用的要素を共同で捉えた論文レビュー者マッチングの統一モデルを提案する。
統一モデルでは、コンテキスト化された言語モデルバックボーンを共通知識を学習するためのすべての要因で共有し、各要因の独自性を因子認識紙の埋め込みによって特徴付けるように指導調律を導入する。
機械学習,コンピュータビジョン,情報検索,データマイニングなど,さまざまな分野にわたる4つのデータセット(うちの1つは新たにコントリビュートされた)に関する実験は,最新の論文レビュー手法と科学的事前学習された言語モデルと比較して,提案するuniprモデルの有効性を一貫して検証している。
関連論文リスト
- RelevAI-Reviewer: A Benchmark on AI Reviewers for Survey Paper Relevance [0.8089605035945486]
本稿では,調査論文レビューの課題を分類問題として概念化するシステムであるRelevAI-Reviewerを提案する。
25,164のインスタンスからなる新しいデータセットを導入する。各インスタンスには1つのプロンプトと4つの候補論文があり、それぞれがプロンプトに関連している。
我々は,各論文の関連性を判断し,最も関連性の高い論文を識別できる機械学習(ML)モデルを開発した。
論文 参考訳(メタデータ) (2024-06-13T06:42:32Z) - Explaining Relationships Among Research Papers [14.223038413516685]
本稿では,よりリッチな引用テキストを生成するための機能ベースのLLMプロンプト手法を提案する。
人間の好みと統合的書き方の間には強い相関関係がみられ,高いレベルの抽象的引用を好むことが示唆された。
論文 参考訳(メタデータ) (2024-02-20T23:38:39Z) - CausalCite: A Causal Formulation of Paper Citations [80.82622421055734]
CausalCiteは紙の意義を測定するための新しい方法だ。
これは、従来のマッチングフレームワークを高次元のテキスト埋め込みに適応させる、新しい因果推論手法であるTextMatchに基づいている。
科学専門家が報告した紙衝撃と高い相関性など,各種基準におけるCausalCiteの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。