論文の概要: ReAct: A Review Comment Dataset for Actionability (and more)
- arxiv url: http://arxiv.org/abs/2210.00443v1
- Date: Sun, 2 Oct 2022 07:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:39:34.301312
- Title: ReAct: A Review Comment Dataset for Actionability (and more)
- Title(参考訳): react: アクション可能性(その他)のためのレビューコメントデータセット
- Authors: Gautam Choudhary, Natwar Modani, Nitish Maurya
- Abstract要約: 注釈付きレビューコメントデータセットReActを紹介する。
レビューコメントはOpenReviewのサイトから引用されている。
これらのレビューのためのアノテーションをクラウドソースで公開しています。
- 参考スコア(独自算出の注目度): 0.8885727065823155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Review comments play an important role in the evolution of documents. For a
large document, the number of review comments may become large, making it
difficult for the authors to quickly grasp what the comments are about. It is
important to identify the nature of the comments to identify which comments
require some action on the part of document authors, along with identifying the
types of these comments. In this paper, we introduce an annotated review
comment dataset ReAct. The review comments are sourced from OpenReview site. We
crowd-source annotations for these reviews for actionability and type of
comments. We analyze the properties of the dataset and validate the quality of
annotations. We release the dataset (https://github.com/gtmdotme/ReAct) to the
research community as a major contribution. We also benchmark our data with
standard baselines for classification tasks and analyze their performance.
- Abstract(参考訳): レビューコメントはドキュメントの進化において重要な役割を果たす。
大きなドキュメントでは、レビューコメントの数が大きくなり、著者がコメントが何であるかを素早く把握することが難しくなる。
コメントのタイプを特定するとともに、どのコメントが文書作成者に対して何らかのアクションを必要とするかを特定することが重要である。
本稿では,注釈付きレビューコメントデータセットReActを紹介する。
レビューコメントはOpenReviewサイトから引用されている。
これらのレビューに対するコメントをクラウドソースで公開しています。
データセットの特性を分析し、アノテーションの品質を検証する。
我々は、主要な貢献としてデータセット(https://github.com/gtmdotme/ReAct)を研究コミュニティにリリースします。
また、分類タスクの標準ベースラインでデータをベンチマークし、パフォーマンスを分析します。
関連論文リスト
- Hold On! Is My Feedback Useful? Evaluating the Usefulness of Code Review Comments [0.0]
本稿では,コードレビューコメント(CRコメント)の有用性について,テキスト機能ベースおよび機能レスアプローチを用いて検討する。
我々のモデルは最先端の性能を達成することでベースラインを上回ります。
本分析では,ドメイン,プロジェクト,データセット,モデル,およびCRコメントの有用性を予測する特徴の類似点と相違点について述べる。
論文 参考訳(メタデータ) (2025-01-12T07:22:13Z) - SEAGraph: Unveiling the Whole Story of Paper Review Comments [26.39115060771725]
従来のピアレビュープロセスでは、著者は曖昧または不十分な詳細なフィードバックを受け取ることが多い。
これにより、著者によるレビューコメントの理解を深める方法について、批判的な疑問が持ち上がる。
提案するSEAGraphは,レビューの意図を明らかにすることによって,レビューコメントを明確にするための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-12-16T16:24:36Z) - Evaluating D-MERIT of Partial-annotation on Information Retrieval [77.44452769932676]
検索モデルは、部分的に注釈付けされたデータセットでしばしば評価される。
部分的に注釈付けされたデータセットを評価に用いると歪んだ絵が描けることを示す。
論文 参考訳(メタデータ) (2024-06-23T08:24:08Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - Exploring the Advances in Identifying Useful Code Review Comments [0.0]
本稿では,コードレビューコメントの有用性に関する研究の進化を反映する。
コードレビューコメントの有用性を定義し、データセットのマイニングとアノテーションを定義し、開発者の認識を調査し、異なる側面から要因を分析し、機械学習分類器を使用してコードレビューコメントの有用性を自動的に予測する。
論文 参考訳(メタデータ) (2023-07-03T00:41:20Z) - On the Role of Reviewer Expertise in Temporal Review Helpfulness
Prediction [5.381004207943597]
有用なレビューを識別する既存の方法は、主にレビューテキストに焦点をあて、レビューを投稿する(1)とレビューを投稿する(2)の2つの重要な要素を無視する。
本稿では,過去のレビュー履歴から得られたレビュアの専門知識と,レビューの時間的ダイナミクスを統合し,レビューの有用性を自動的に評価するモデルを提案する。
論文 参考訳(メタデータ) (2023-02-22T23:41:22Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Abstractive Opinion Tagging [65.47649273721679]
eコマースでは、意見タグは、アイテムのレビューの特徴を反映したEコマースプラットフォームが提供するタグのランクリストを指す。
意見タグを生成するための現在のメカニズムは、手作業またはラベル付け方法に依存します。
AOT-Net と呼ばれる抽象的な意見タグフレームワークを提案し、多数のレビューからランク付けされた意見タグのリストを生成します。
論文 参考訳(メタデータ) (2021-01-18T05:08:15Z) - ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis [62.76038841302741]
レビュースコアを自動的に割り当てて,新規性や意味のある比較など,複数のカテゴリのコメントを書くための,新しいReviewRobotを構築した。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家による人間による評価は、ReviewRobotが生成したコメントの41.7%-70.5%が有効で建設的であり、その20%は人間が書いたものよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-10-13T02:17:58Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。