論文の概要: ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis
- arxiv url: http://arxiv.org/abs/2010.06119v3
- Date: Thu, 3 Dec 2020 22:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:35:30.992717
- Title: ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis
- Title(参考訳): ReviewRobot:知識合成に基づく説明可能な論文レビュー生成
- Authors: Qingyun Wang, Qi Zeng, Lifu Huang, Kevin Knight, Heng Ji, Nazneen
Fatema Rajani
- Abstract要約: レビュースコアを自動的に割り当てて,新規性や意味のある比較など,複数のカテゴリのコメントを書くための,新しいReviewRobotを構築した。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家による人間による評価は、ReviewRobotが生成したコメントの41.7%-70.5%が有効で建設的であり、その20%は人間が書いたものよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 62.76038841302741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To assist human review process, we build a novel ReviewRobot to automatically
assign a review score and write comments for multiple categories such as
novelty and meaningful comparison. A good review needs to be knowledgeable,
namely that the comments should be constructive and informative to help improve
the paper; and explainable by providing detailed evidence. ReviewRobot achieves
these goals via three steps: (1) We perform domain-specific Information
Extraction to construct a knowledge graph (KG) from the target paper under
review, a related work KG from the papers cited by the target paper, and a
background KG from a large collection of previous papers in the domain. (2) By
comparing these three KGs, we predict a review score and detailed structured
knowledge as evidence for each review category. (3) We carefully select and
generalize human review sentences into templates, and apply these templates to
transform the review scores and evidence into natural language comments.
Experimental results show that our review score predictor reaches 71.4%-100%
accuracy. Human assessment by domain experts shows that 41.7%-70.5% of the
comments generated by ReviewRobot are valid and constructive, and better than
human-written ones for 20% of the time. Thus, ReviewRobot can serve as an
assistant for paper reviewers, program chairs and authors.
- Abstract(参考訳): 人間のレビュープロセスを支援するために,レビューロボットを構築し,レビュースコアを自動的に割り当て,新規性や意味のある比較などの複数のカテゴリのコメントを書く。
良いレビューは理解しやすく、すなわち、論文を改善するためにコメントが建設的で情報的であること、そして詳細な証拠を提供することで説明できることが必要です。
reviewrobotは,(1)レビュー対象紙から知識グラフ(kg)を構築するためにドメイン固有情報抽出を行う,(2)対象紙から引用した文書から関連する作業kg,2)ドメイン内の大量の論文から背景kgを行う,という3つのステップでこれらの目標を達成している。
2) これら3つのKGを比較して,レビュースコアと詳細な構造化知識を,各レビューカテゴリの証拠として予測する。
3)人間のレビュー文をテンプレートに慎重に選択・一般化し,これらのテンプレートを用いてレビュースコアとエビデンスを自然言語コメントに変換する。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家によるヒューマン・アセスメントによると、reviewrobotが生成したコメントの41.7%-70.5%は有効で建設的であり、20%は人間が書いたコメントよりも優れている。
したがって、ReviewRobotはペーパーレビュアー、プログラムチェア、著者のアシスタントとして機能する。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Towards Personalized Review Summarization by Modeling Historical Reviews
from Customer and Product Separately [59.61932899841944]
レビュー要約(review summarization)は、Eコマースのウェブサイトで製品レビューのメインの考え方を要約することを目的とした、簡単ではないタスクである。
Heterogeneous Historical Review aware Review Summarization Model (HHRRS)を提案する。
我々は、レビュー感情分類と要約を共同で行うマルチタスクフレームワークを採用している。
論文 参考訳(メタデータ) (2023-01-27T12:32:55Z) - Polarity in the Classroom: A Case Study Leveraging Peer Sentiment Toward
Scalable Assessment [4.588028371034406]
大規模なまたは大規模なオープンオンラインコース(MOOC)における、正確な段階的なオープンエンドの割り当ては、簡単ではない。
本稿では、ドメイン依存のレキシコンとアスペクトインフォーム化されたレビューフォームを作成するプロセスについて詳述する。
有効性を分析し、9コースから6800以上のピアレビューのコーパスから結論を議論する。
論文 参考訳(メタデータ) (2021-08-02T15:45:11Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - Improving Document-Level Sentiment Analysis with User and Product
Context [16.47527363427252]
感情予測時に利用可能な追加レビューテキストの導入について検討する。
私たちは、同じユーザと、同じ製品で書かれたレビューの表現を明示的に保存することで、これを実現する。
IMDB、Yelp 2013、Yelp 2014データセットの実験結果は、最高のケースで2ポイント以上の最先端の改善を示している。
論文 参考訳(メタデータ) (2020-11-18T10:59:14Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。