論文の概要: Automatic Reviewers Assignment to a Research Paper Based on Allied References and Publications Weight
- arxiv url: http://arxiv.org/abs/2506.21331v1
- Date: Thu, 26 Jun 2025 14:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.139471
- Title: Automatic Reviewers Assignment to a Research Paper Based on Allied References and Publications Weight
- Title(参考訳): アライアンス・レファレンスと出版重みに基づく研究論文への自動レビュアーの指定
- Authors: Tamim Al Mahmud, B M Mainul Hossain, Dilshad Ara,
- Abstract要約: 我々は,研究論文のベストレビュアーを自動選択するための新しい戦略を用いたプログラムを提案し,実装する。
まず、参照を収集し、参照に少なくとも1つの論文を持つ著者を数える。
次に、特定のトピックの上位研究者を検索し、最初のn人の著者のh-index、i10-index、引用を数える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Everyday, a vast stream of research documents is submitted to conferences, anthologies, journals, newsletters, annual reports, daily papers, and various periodicals. Many such publications use independent external specialists to review submissions. This process is called peer review, and the reviewers are called referees. However, it is not always possible to pick the best referee for reviewing. Moreover, new research fields are emerging in every sector, and the number of research papers is increasing dramatically. To review all these papers, every journal assigns a small team of referees who may not be experts in all areas. For example, a research paper in communication technology should be reviewed by an expert from the same field. Thus, efficiently selecting the best reviewer or referee for a research paper is a big challenge. In this research, we propose and implement program that uses a new strategy to automatically select the best reviewers for a research paper. Every research paper contains references at the end, usually from the same area. First, we collect the references and count authors who have at least one paper in the references. Then, we automatically browse the web to extract research topic keywords. Next, we search for top researchers in the specific topic and count their h-index, i10-index, and citations for the first n authors. Afterward, we rank the top n authors based on a score and automatically browse their homepages to retrieve email addresses. We also check their co-authors and colleagues online and discard them from the list. The remaining top n authors, generally professors, are likely the best referees for reviewing the research paper.
- Abstract(参考訳): 毎日、会議、アンソロジー、雑誌、ニュースレター、年次報告書、日刊紙、様々な定期刊行物に膨大な研究文書が提出されている。
このような出版物の多くは、独立した外部スペシャリストを使用して提出書をレビューしている。
このプロセスはピアレビューと呼ばれ、レビュアーはレビュアーと呼ばれる。
しかし、レビューに最適なレフェリーを選ぶことは必ずしも不可能である。
さらに、各分野に新たな研究分野が出現し、研究論文の数が劇的に増えている。
これらの論文をレビューするために、各ジャーナルは、あらゆる分野の専門家でないかもしれない小さな審判チームを割り当てる。
例えば、コミュニケーション技術の研究論文は、同じ分野の専門家によってレビューされるべきである。
したがって、研究論文のベストレビュアーやレビュアーを効率的に選択することは大きな課題である。
本研究では,研究論文のベストレビュアーを自動選択するための新しい戦略を用いたプログラムを提案し,実装する。
すべての研究論文は最後に、通常同じ領域から参照されている。
まず、参照を収集し、参照に少なくとも1つの論文を持つ著者を数える。
そして、Webを自動的に閲覧して研究トピックのキーワードを抽出する。
次に、特定のトピックの上位研究者を検索し、最初のn人の著者のh-index、i10-index、引用を数える。
その後、スコアに基づいて上位n人の著者をランク付けし、ホームページを自動的に閲覧してメールアドレスを検索する。
共同執筆者や同僚もオンラインでチェックし、リストから削除しています。
残りのトップnの著者、一般的に教授は、研究論文をレビューする最良の審判である可能性が高い。
関連論文リスト
- Rs4rs: Semantically Find Recent Publications from Top Recommendation System-Related Venues [0.2812395851874055]
Rs4rsは、Recommender Systemsに関連するトップカンファレンスやジャーナルの最近の論文のセマンティック検索を実行するように設計されたWebアプリケーションである。
Rs4rsはユーザーフレンドリーなプラットフォームを提供することでこれらの問題に対処し、研究者は興味のあるトピックを入力し、Recommender Systemsのトップ会場から最新の関連論文のリストを受け取ることができる。
論文 参考訳(メタデータ) (2024-09-09T12:53:06Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Tell Me How to Survey: Literature Review Made Simple with Automatic
Reading Path Generation [16.07200776251764]
論文を大量の文献から読めば、簡単な調査をしたり、特定の研究トピックに関する最新の進歩に遅れないようにする方法が課題になっている。
Google Scholarのような既存の学術検索エンジンは、各論文とクエリ間の関連性を個別に計算することで、関連論文を返す。
本稿では,あるクエリに対して読み込む論文のパスを自動生成することを目的とした読解パス生成(RPG)を紹介する。
論文 参考訳(メタデータ) (2021-10-12T20:58:46Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - Automatic generation of reviews of scientific papers [1.1999555634662633]
本稿では,ユーザ定義クエリに対応するレビューペーパーの自動生成手法を提案する。
第1部では、共引用グラフなどの文献パラメータによって、この領域における重要な論文を識別する。
第2段階では、BERTベースのアーキテクチャを使用して、これらの重要な論文の抽出要約のために既存のレビューをトレーニングします。
論文 参考訳(メタデータ) (2020-10-08T17:47:07Z) - Understanding Peer Review of Software Engineering Papers [5.744593856232663]
我々は、審査で受賞した者を含むレビュアーが、ソフトウェア工学論文のレビューをどのように行うかを理解することを目的としている。
肯定的なレビューをもたらす論文の最も重要な特徴は、明確で支持された検証、興味深い問題、そして新規性である。
著者は論文でその作品の貢献を非常に明確にすべきである。
論文 参考訳(メタデータ) (2020-09-02T17:31:45Z) - From Standard Summarization to New Tasks and Beyond: Summarization with
Manifold Information [77.89755281215079]
テキスト要約は、原文書の短く凝縮した版を作成することを目的とした研究分野である。
現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。
本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチについて調査する。
論文 参考訳(メタデータ) (2020-05-10T14:59:36Z) - A Correspondence Analysis Framework for Author-Conference
Recommendations [2.1055643409860743]
我々は、会議や論文など、問題のエンティティ間の適切な関係を導出するために、対応分析(CA)を利用する。
本モデルは,コンテンツベースフィルタリング,協調フィルタリング,ハイブリッドフィルタリングなどの既存手法と比較して有望な結果を示す。
論文 参考訳(メタデータ) (2020-01-08T18:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。