論文の概要: ReAct: A Review Comment Dataset for Actionability (and more)
- arxiv url: http://arxiv.org/abs/2210.00443v1
- Date: Sun, 2 Oct 2022 07:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:39:34.301312
- Title: ReAct: A Review Comment Dataset for Actionability (and more)
- Title(参考訳): react: アクション可能性(その他)のためのレビューコメントデータセット
- Authors: Gautam Choudhary, Natwar Modani, Nitish Maurya
- Abstract要約: 注釈付きレビューコメントデータセットReActを紹介する。
レビューコメントはOpenReviewのサイトから引用されている。
これらのレビューのためのアノテーションをクラウドソースで公開しています。
- 参考スコア(独自算出の注目度): 0.8885727065823155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Review comments play an important role in the evolution of documents. For a
large document, the number of review comments may become large, making it
difficult for the authors to quickly grasp what the comments are about. It is
important to identify the nature of the comments to identify which comments
require some action on the part of document authors, along with identifying the
types of these comments. In this paper, we introduce an annotated review
comment dataset ReAct. The review comments are sourced from OpenReview site. We
crowd-source annotations for these reviews for actionability and type of
comments. We analyze the properties of the dataset and validate the quality of
annotations. We release the dataset (https://github.com/gtmdotme/ReAct) to the
research community as a major contribution. We also benchmark our data with
standard baselines for classification tasks and analyze their performance.
- Abstract(参考訳): レビューコメントはドキュメントの進化において重要な役割を果たす。
大きなドキュメントでは、レビューコメントの数が大きくなり、著者がコメントが何であるかを素早く把握することが難しくなる。
コメントのタイプを特定するとともに、どのコメントが文書作成者に対して何らかのアクションを必要とするかを特定することが重要である。
本稿では,注釈付きレビューコメントデータセットReActを紹介する。
レビューコメントはOpenReviewサイトから引用されている。
これらのレビューに対するコメントをクラウドソースで公開しています。
データセットの特性を分析し、アノテーションの品質を検証する。
我々は、主要な貢献としてデータセット(https://github.com/gtmdotme/ReAct)を研究コミュニティにリリースします。
また、分類タスクの標準ベースラインでデータをベンチマークし、パフォーマンスを分析します。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - Exploring the Advances in Identifying Useful Code Review Comments [0.0]
本稿では,コードレビューコメントの有用性に関する研究の進化を反映する。
コードレビューコメントの有用性を定義し、データセットのマイニングとアノテーションを定義し、開発者の認識を調査し、異なる側面から要因を分析し、機械学習分類器を使用してコードレビューコメントの有用性を自動的に予測する。
論文 参考訳(メタデータ) (2023-07-03T00:41:20Z) - On the Role of Reviewer Expertise in Temporal Review Helpfulness
Prediction [5.381004207943597]
有用なレビューを識別する既存の方法は、主にレビューテキストに焦点をあて、レビューを投稿する(1)とレビューを投稿する(2)の2つの重要な要素を無視する。
本稿では,過去のレビュー履歴から得られたレビュアの専門知識と,レビューの時間的ダイナミクスを統合し,レビューの有用性を自動的に評価するモデルを提案する。
論文 参考訳(メタデータ) (2023-02-22T23:41:22Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Abstractive Opinion Tagging [65.47649273721679]
eコマースでは、意見タグは、アイテムのレビューの特徴を反映したEコマースプラットフォームが提供するタグのランクリストを指す。
意見タグを生成するための現在のメカニズムは、手作業またはラベル付け方法に依存します。
AOT-Net と呼ばれる抽象的な意見タグフレームワークを提案し、多数のレビューからランク付けされた意見タグのリストを生成します。
論文 参考訳(メタデータ) (2021-01-18T05:08:15Z) - Improving Document-Level Sentiment Analysis with User and Product
Context [16.47527363427252]
感情予測時に利用可能な追加レビューテキストの導入について検討する。
私たちは、同じユーザと、同じ製品で書かれたレビューの表現を明示的に保存することで、これを実現する。
IMDB、Yelp 2013、Yelp 2014データセットの実験結果は、最高のケースで2ポイント以上の最先端の改善を示している。
論文 参考訳(メタデータ) (2020-11-18T10:59:14Z) - ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis [62.76038841302741]
レビュースコアを自動的に割り当てて,新規性や意味のある比較など,複数のカテゴリのコメントを書くための,新しいReviewRobotを構築した。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家による人間による評価は、ReviewRobotが生成したコメントの41.7%-70.5%が有効で建設的であり、その20%は人間が書いたものよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-10-13T02:17:58Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。