論文の概要: A Dataset for Discourse Structure in Peer Review Discussions
- arxiv url: http://arxiv.org/abs/2110.08520v1
- Date: Sat, 16 Oct 2021 09:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 14:56:50.854384
- Title: A Dataset for Discourse Structure in Peer Review Discussions
- Title(参考訳): ピアレビュー討論における談話構造に関するデータセット
- Authors: Neha Nayak Kennard, Tim O'Gorman, Akshay Sharma, Chhandak Bagchi,
Matthew Clinton, Pranay Kumar Yelugam, Rajarshi Das, Hamed Zamani, Andrew
McCallum
- Abstract要約: 反感からの言論の手がかりは、レビューの品質と解釈に光を当てることができることを示す。
本稿では,20k文のラベル付きデータセットを英語で506対のレビュー・リビュー・ペアに収録し,専門家が注釈を付けた。
- 参考スコア(独自算出の注目度): 33.621647816641925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At the foundation of scientific evaluation is the labor-intensive process of
peer review. This critical task requires participants to consume and interpret
vast amounts of highly technical text. We show that discourse cues from
rebuttals can shed light on the quality and interpretation of reviews. Further,
an understanding of the argumentative strategies employed by the reviewers and
authors provides useful signal for area chairs and other decision makers.
This paper presents a new labeled dataset of 20k sentences contained in 506
review-rebuttal pairs in English, annotated by experts. While existing datasets
annotate a subset of review sentences using various schemes, ours synthesizes
existing label sets and extends them to include fine-grained annotation of the
rebuttal sentences, characterizing the authors' stance towards the reviewers'
criticisms and their commitment to addressing them. Further, we annotate
\textit{every} sentence in both the review and the rebuttal, including a
description of the context for each rebuttal sentence.
- Abstract(参考訳): 科学的評価の基礎は、ピアレビューの労働集約的なプロセスである。
この重要なタスクでは、参加者は大量の高度な技術的テキストを消費し、解釈する必要がある。
rebuttalsからの談話はレビューの品質と解釈に光を当てることができる。
さらに、レビュアーや著者が採用する議論戦略の理解は、地域の議長や他の意思決定者にとって有用なシグナルを提供する。
本稿では,20k文のラベル付きデータセットを英語で506対のレビュー・リビュー・ペアに収録し,専門家が注釈を付けた。
既存のデータセットは様々なスキームを用いてレビュー文のサブセットに注釈を付けるが、我々は既存のラベル集合を合成し、リビュータル文の細かな注釈を含むように拡張し、レビュー者の批判に対する著者のスタンスとそれに対処するコミットメントを特徴付ける。
さらに,各属性文の文脈記述を含め,レビュー文とリビュー文の両方で「textit{every}」文を注釈付けする。
関連論文リスト
- CASIMIR: A Corpus of Scientific Articles enhanced with Multiple
Author-Integrated Revisions [8.050416164183485]
本稿では,学術論文の執筆過程の改訂段階について,原文資料を提案する。
この新しいデータセットはCASIMIRと呼ばれ、OpenReviewの15,646の科学論文の改訂版とピアレビューを含んでいる。
論文 参考訳(メタデータ) (2024-03-01T03:07:32Z) - A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence [62.90682521144006]
この分析は、様々な観点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
書評を自動評価するために,大規模言語モデルを用いた書評指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - To Revise or Not to Revise: Learning to Detect Improvable Claims for
Argumentative Writing Support [20.905660642919052]
特定の修正が必要な議論的クレームを特定するための主な課題について検討する。
本稿では,リビジョン距離に基づく新しいサンプリング戦略を提案する。
文脈情報とドメイン知識を用いることで、予測結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:54Z) - Submission-Aware Reviewer Profiling for Reviewer Recommender System [26.382772998002523]
本稿では,潜在的レビュアーが出版する各要約から,研究対象のトピックと,そのトピックを研究対象とする明示的な文脈を学習する手法を提案する。
実験の結果,既存手法と比較して精度が向上した。
この新しいアプローチは、過去2年でトップレベルのカンファレンスで成功している。
論文 参考訳(メタデータ) (2022-11-08T12:18:02Z) - Revision for Concision: A Constrained Paraphrase Generation Task [0.3121997724420106]
簡潔化のための修正は、文レベルでの自然言語処理タスクである。
簡潔化のためには、アルゴリズムは文を書き換えるために必要な単語のみを使用する必要がある。
我々は、精度向上のための修正を描写できるベンチマーク並列データセットをキュレートし、利用可能にします。
論文 参考訳(メタデータ) (2022-10-25T18:20:54Z) - Annotation and Classification of Evidence and Reasoning Revisions in
Argumentative Writing [0.9449650062296824]
本稿では,エビデンスの使用と推論の文レベルの改訂の性質を捉えるためのアノテーションスキームを提案する。
信頼性のある手書きアノテーションが達成できることを示し,修正アノテーションはエッセイ改善の全体的評価と相関することを示す。
論文 参考訳(メタデータ) (2021-07-14T20:58:26Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - A Unified Dual-view Model for Review Summarization and Sentiment
Classification with Inconsistency Loss [51.448615489097236]
ユーザーレビューから正確な要約と感情を取得することは、現代のEコマースプラットフォームにとって不可欠な要素である。
本稿では,これら2つのタスクの性能を協調的に改善する新しいデュアルビューモデルを提案する。
異なる領域の4つの実世界のデータセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-06-02T13:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。