論文の概要: Which structure of academic articles do referees pay more attention to?:
perspective of peer review and full-text of academic articles
- arxiv url: http://arxiv.org/abs/2209.01841v1
- Date: Mon, 5 Sep 2022 08:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:24:57.769050
- Title: Which structure of academic articles do referees pay more attention to?:
perspective of peer review and full-text of academic articles
- Title(参考訳): 審判はどの学術論文にもっと注意を払っているか。
ピアレビューの視点と学術論文の全文
- Authors: Chenglei Qin and Chengzhi Zhang
- Abstract要約: The count of PRC distributed in Materials and Methods and Results section is significantly than it in the structure of Introduction and discussion。
異なる構造におけるPRCの特徴単語の分布は明らかに異なり、レフェリーの関心事の内容が反映される。
異なる構造におけるPRCの分布と励起の間には相関がない。
- 参考スコア(独自算出の注目度): 5.89408513477919
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose
The purpose of this paper is to explore which structures of academic articles
referees would pay more attention to, what specific content referees focus on,
and whether the distribution of PRC is related to the citations.
Design/methodology/approach
Firstly, utilizing the feature words of section title and hierarchical
attention network model (HAN) to identify the academic article structures.
Secondly, analyzing the distribution of PRC in different structures according
to the position information extracted by rules in PRC. Thirdly, analyzing the
distribution of feature words of PRC extracted by the Chi-square test and
TF-IDF in different structures. Finally, four correlation analysis methods are
used to analyze whether the distribution of PRC in different structures is
correlated to the citations. Findings
The count of PRC distributed in Materials and Methods and Results section is
significantly more than that in the structure of Introduction and Discussion,
indicating that referees pay more attention to the Material and Methods and
Results. The distribution of feature words of PRC in different structures is
obviously different, which can reflect the content of referees' concern. There
is no correlation between the distribution of PRC in different structures and
the citations. Research limitations/implications
Due to the differences in the way referees write peer review reports, the
rules used to extract position information cannot cover all PRC.
Originality/value
The paper finds a pattern in the distribution of PRC in different academic
article structures proving the long-term empirical understanding. It also
provides insight into academic article writing: researchers should ensure the
scientificity of methods and the reliability of results when writing academic
article to obtain a high degree of recognition from referees.
- Abstract(参考訳): 目的】本論文の目的は,学術論文のレビュアーがどの構造に注意を払うか,特定のコンテンツレビュアーが注目するか,prcの分布が引用との関連性について検討することである。
まず、節タイトルの特徴語と階層的注意ネットワークモデル(han)を用いて、学術論文の構造を識別する。
次に, ルールによって抽出された位置情報に基づいて, 異なる構造におけるPRCの分布を分析する。
第3に,Chi-squareテストとTF-IDFで抽出したPRCの特徴単語の分布解析を行った。
最後に、異なる構造におけるPRCの分布が励起と相関しているかどうかを4つの相関解析法を用いて分析する。
発見 資料・方法・結果セクションに配布されるPRCの数は、紹介・議論の構造よりもはるかに多く、審判が資料・方法・結果により注意を払っていることを示す。
異なる構造におけるPRCの特徴単語の分布は明らかに異なり、レフェリーの関心事の内容が反映される。
異なる構造におけるPRCの分布と励起の間には相関がない。
研究上の制限/影響 レフェリーがピアレビューレポートを書く方法が異なるため、位置情報を抽出するルールはすべてのPRCをカバーできない。
論文の独創性/価値 長期的な経験的理解を証明する異なる学術論文構造におけるprc分布のパターンを見出す。
研究者は、研究者から高い評価を得るために、学術論文を書く際に、方法の科学的妥当性と結果の信頼性を確保する必要がある。
関連論文リスト
- Why do you cite? An investigation on citation intents and decision-making classification processes [1.7812428873698407]
本研究は,引用意図を信頼して分類することの重要性を強調する。
本稿では,citation Intent Classification (CIC) のための高度なアンサンブル戦略を用いた研究について述べる。
我々のモデルの1つは、SciCiteベンチマークで89.46%のマクロF1スコアを持つ新しい最先端(SOTA)として設定されている。
論文 参考訳(メタデータ) (2024-07-18T09:29:33Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - CausalCite: A Causal Formulation of Paper Citations [80.82622421055734]
CausalCiteは紙の意義を測定するための新しい方法だ。
これは、従来のマッチングフレームワークを高次元のテキスト埋め込みに適応させる、新しい因果推論手法であるTextMatchに基づいている。
科学専門家が報告した紙衝撃と高い相関性など,各種基準におけるCausalCiteの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-05T23:09:39Z) - Chain-of-Factors Paper-Reviewer Matching [32.86512592730291]
本稿では,意味的・話題的・引用的要因を協調的に考慮した,論文レビューアマッチングのための統一モデルを提案する。
提案したChain-of-Factorsモデルの有効性を,最先端のペーパー-リビューアマッチング手法と科学的事前学習言語モデルと比較した。
論文 参考訳(メタデータ) (2023-10-23T01:29:18Z) - Artificial intelligence technologies to support research assessment: A
review [10.203602318836444]
この文献レビューは、記事のテキストから、より高いインパクトやより高い品質の研究に関連する指標を特定する。
論文やカンファレンス論文の引用数や品質スコアを予測するために機械学習技術を使用した研究が含まれている。
論文 参考訳(メタデータ) (2022-12-11T06:58:39Z) - NLPeer: A Unified Resource for the Computational Study of Peer Review [58.71736531356398]
NLPeer - 5万以上の論文と5つの異なる会場からの1万1千件のレビューレポートからなる、初めて倫理的にソースされたマルチドメインコーパス。
従来のピアレビューデータセットを拡張し、解析および構造化された論文表現、豊富なメタデータ、バージョニング情報を含む。
我々の研究は、NLPなどにおけるピアレビューの体系的、多面的、エビデンスに基づく研究への道のりをたどっている。
論文 参考訳(メタデータ) (2022-11-12T12:29:38Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - A Systematic Literature Review of Empiricism and Norms of Reporting in
Computing Education Research Literature [4.339510167603376]
本研究の目的は,コンピュータ教育研究(CER)文学における経験主義の報告を特徴付けることである。
2014年と2015年に5つのCER会場で427件の論文のSLRを行った。
80%以上の論文がある種の経験的評価をしていた。
論文 参考訳(メタデータ) (2021-07-02T16:37:29Z) - Characterizing References from Different Disciplines: A Perspective of
Citation Content Analysis [7.171503036026183]
この研究は、データとしてPLoSの記事を取り、Citation Content Analysis(CCA)に基づく異なる分野からの参照を特徴付ける。
ほとんどの文献は自然科学からの引用であるが、人文科学と社会科学は記事の紹介と背景セクションにおいて重要な役割を担っている。
論文 参考訳(メタデータ) (2021-01-19T13:30:00Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。