論文の概要: A Dataset for Discourse Structure in Peer Review Discussions
- arxiv url: http://arxiv.org/abs/2110.08520v1
- Date: Sat, 16 Oct 2021 09:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 14:56:50.854384
- Title: A Dataset for Discourse Structure in Peer Review Discussions
- Title(参考訳): ピアレビュー討論における談話構造に関するデータセット
- Authors: Neha Nayak Kennard, Tim O'Gorman, Akshay Sharma, Chhandak Bagchi,
Matthew Clinton, Pranay Kumar Yelugam, Rajarshi Das, Hamed Zamani, Andrew
McCallum
- Abstract要約: 反感からの言論の手がかりは、レビューの品質と解釈に光を当てることができることを示す。
本稿では,20k文のラベル付きデータセットを英語で506対のレビュー・リビュー・ペアに収録し,専門家が注釈を付けた。
- 参考スコア(独自算出の注目度): 33.621647816641925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: At the foundation of scientific evaluation is the labor-intensive process of
peer review. This critical task requires participants to consume and interpret
vast amounts of highly technical text. We show that discourse cues from
rebuttals can shed light on the quality and interpretation of reviews. Further,
an understanding of the argumentative strategies employed by the reviewers and
authors provides useful signal for area chairs and other decision makers.
This paper presents a new labeled dataset of 20k sentences contained in 506
review-rebuttal pairs in English, annotated by experts. While existing datasets
annotate a subset of review sentences using various schemes, ours synthesizes
existing label sets and extends them to include fine-grained annotation of the
rebuttal sentences, characterizing the authors' stance towards the reviewers'
criticisms and their commitment to addressing them. Further, we annotate
\textit{every} sentence in both the review and the rebuttal, including a
description of the context for each rebuttal sentence.
- Abstract(参考訳): 科学的評価の基礎は、ピアレビューの労働集約的なプロセスである。
この重要なタスクでは、参加者は大量の高度な技術的テキストを消費し、解釈する必要がある。
rebuttalsからの談話はレビューの品質と解釈に光を当てることができる。
さらに、レビュアーや著者が採用する議論戦略の理解は、地域の議長や他の意思決定者にとって有用なシグナルを提供する。
本稿では,20k文のラベル付きデータセットを英語で506対のレビュー・リビュー・ペアに収録し,専門家が注釈を付けた。
既存のデータセットは様々なスキームを用いてレビュー文のサブセットに注釈を付けるが、我々は既存のラベル集合を合成し、リビュータル文の細かな注釈を含むように拡張し、レビュー者の批判に対する著者のスタンスとそれに対処するコミットメントを特徴付ける。
さらに,各属性文の文脈記述を含め,レビュー文とリビュー文の両方で「textit{every}」文を注釈付けする。
関連論文リスト
- Evaluating D-MERIT of Partial-annotation on Information Retrieval [77.44452769932676]
検索モデルは、部分的に注釈付けされたデータセットでしばしば評価される。
部分的に注釈付けされたデータセットを評価に用いると歪んだ絵が描けることを示す。
論文 参考訳(メタデータ) (2024-06-23T08:24:08Z) - CADS: A Systematic Literature Review on the Challenges of Abstractive Dialogue Summarization [7.234196390284036]
本稿では、英語対話におけるトランスフォーマーに基づく抽象要約に関する研究を要約する。
ダイアログ要約における主な課題(言語、構造、理解、話者、サリエンス、事実)をカバーします。
言語などいくつかの課題がかなりの進歩を遂げているのに対して、理解、事実性、サリエンスといった課題は依然として困難であり、重要な研究機会を持っている。
論文 参考訳(メタデータ) (2024-06-11T17:30:22Z) - CASIMIR: A Corpus of Scientific Articles enhanced with Multiple Author-Integrated Revisions [7.503795054002406]
本稿では,学術論文の執筆過程の改訂段階について,原文資料を提案する。
この新しいデータセットはCASIMIRと呼ばれ、OpenReviewの15,646の科学論文の改訂版とピアレビューを含んでいる。
論文 参考訳(メタデータ) (2024-03-01T03:07:32Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - To Revise or Not to Revise: Learning to Detect Improvable Claims for
Argumentative Writing Support [20.905660642919052]
特定の修正が必要な議論的クレームを特定するための主な課題について検討する。
本稿では,リビジョン距離に基づく新しいサンプリング戦略を提案する。
文脈情報とドメイン知識を用いることで、予測結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:54Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - Revision for Concision: A Constrained Paraphrase Generation Task [0.3121997724420106]
簡潔化のための修正は、文レベルでの自然言語処理タスクである。
簡潔化のためには、アルゴリズムは文を書き換えるために必要な単語のみを使用する必要がある。
我々は、精度向上のための修正を描写できるベンチマーク並列データセットをキュレートし、利用可能にします。
論文 参考訳(メタデータ) (2022-10-25T18:20:54Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。