論文の概要: Review Helpfulness Scores vs. Review Unhelpfulness Scores: Two Sides of the Same Coin or Different Coins?
- arxiv url: http://arxiv.org/abs/2407.05207v1
- Date: Wed, 24 Apr 2024 10:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 14:29:03.375736
- Title: Review Helpfulness Scores vs. Review Unhelpfulness Scores: Two Sides of the Same Coin or Different Coins?
- Title(参考訳): Helpfulness Scores vs. Review Unhelpfulness Scores: Two Sides of the same Coin or different Coins?
- Authors: Yinan Yu, Dominik Gutt, Warut Khern-am-nuai,
- Abstract要約: レビュー不完全なスコアは本質的なレビューの特徴に左右されないことがわかった。
レビュー不満足の投票を受けたユーザーは、他のレビューに対して不満足の投票をする傾向にある。
- 参考スコア(独自算出の注目度): 1.0738561302102214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating the helpfulness of online reviews supports consumers who must sift through large volumes of online reviews. Online review platforms have increasingly adopted review evaluating systems, which let users evaluate whether reviews are helpful or not; in turn, these evaluations assist review readers and encourage review contributors. Although review helpfulness scores have been studied extensively in the literature, our knowledge regarding their counterpart, review unhelpfulness scores, is lacking. Addressing this gap in the literature is important because researchers and practitioners have assumed that unhelpfulness scores are driven by intrinsic review characteristics and that such scores are associated with low-quality reviews. This study validates this conventional wisdom by examining factors that influence unhelpfulness scores. We find that, unlike review helpfulness scores, unhelpfulness scores are generally not driven by intrinsic review characteristics, as almost none of them are statistically significant predictors of an unhelpfulness score. We also find that users who receive review unhelpfulness votes are more likely to cast unhelpfulness votes for other reviews. Finally, unhelpfulness voters engage much less with the platform than helpfulness voters do. In summary, our findings suggest that review unhelpfulness scores are not driven by intrinsic review characteristics. Therefore, helpfulness and unhelpfulness scores should not be considered as two sides of the same coin.
- Abstract(参考訳): オンラインレビューの有用性を評価することは、大量のオンラインレビューを精査しなければならない消費者を支援する。
オンラインレビュープラットフォームは、レビューが有用かどうかをユーザが評価できるレビュー評価システムを採用しており、これらの評価はレビュー読者を支援し、レビューコントリビュータを奨励する。
本報告では, 文献的有用度スコアは広く研究されているが, 文献的知識が乏しく, 不健康度スコアが欠落している。
文献のこのギャップに対処することが重要であるのは、研究者や実践者が、不完全なスコアは本質的なレビューの特徴によって駆動され、そのようなスコアは品質の低いレビューと関連していると仮定しているからである。
本研究では、この従来の知恵を、不健康スコアに影響を与える要因を調べることによって検証する。
本研究は, 検査有用度スコアとは違って, 内在的な評価特性によって, 不完全性スコアが引き起こされることはないこと, ほぼ誰も統計学的に有意な不完全性スコアの予測因子ではないこと, などを見出した。
また、レビュー不満足な投票を受けたユーザーは、他のレビューに対して不健康な投票をする傾向にあることもわかりました。
最後に、不愉快な有権者は、役立たずの有権者よりもプラットフォームとの関わりがはるかに少ない。
以上の結果から,本態性評価は本態性評価の特徴によるものではないことが示唆された。
したがって、同じ貨幣の両面として、有益さと無益さのスコアを考慮すべきではない。
関連論文リスト
- Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Exploiting Correlated Auxiliary Feedback in Parameterized Bandits [56.84649080789685]
そこで本研究では,学習者が追加の補助的フィードバックを観察できるパラメータ化帯域問題の新たな変種について検討する。
補助的なフィードバックは、ユーザのサービス評価(リワード)を観察し、サービス提供時間(補助的なフィードバック)などの追加情報を収集するオンラインプラットフォームなど、多くの現実的なアプリケーションで容易に利用可能である。
論文 参考訳(メタデータ) (2023-11-05T17:27:06Z) - On the Role of Reviewer Expertise in Temporal Review Helpfulness
Prediction [5.381004207943597]
有用なレビューを識別する既存の方法は、主にレビューテキストに焦点をあて、レビューを投稿する(1)とレビューを投稿する(2)の2つの重要な要素を無視する。
本稿では,過去のレビュー履歴から得られたレビュアの専門知識と,レビューの時間的ダイナミクスを統合し,レビューの有用性を自動的に評価するモデルを提案する。
論文 参考訳(メタデータ) (2023-02-22T23:41:22Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Measuring "Why" in Recommender Systems: a Comprehensive Survey on the
Evaluation of Explainable Recommendation [87.82664566721917]
この調査は、IJCAI、AAAI、TheWebConf、Recsys、UMAP、IUIといったトップレベルのカンファレンスから100以上の論文に基づいています。
論文 参考訳(メタデータ) (2022-02-14T02:58:55Z) - User and Item-aware Estimation of Review Helpfulness [4.640835690336653]
有用性決定因子としてのレビューの性質における逸脱の役割について検討する。
本稿では,従来のものを拡張した新しい有用性推定モデルを提案する。
そこで本モデルは,意思決定におけるユーザフィードバックの選択に有効なツールである。
論文 参考訳(メタデータ) (2020-11-20T15:35:56Z) - ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis [62.76038841302741]
レビュースコアを自動的に割り当てて,新規性や意味のある比較など,複数のカテゴリのコメントを書くための,新しいReviewRobotを構築した。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家による人間による評価は、ReviewRobotが生成したコメントの41.7%-70.5%が有効で建設的であり、その20%は人間が書いたものよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-10-13T02:17:58Z) - Understanding Peer Review of Software Engineering Papers [5.744593856232663]
我々は、審査で受賞した者を含むレビュアーが、ソフトウェア工学論文のレビューをどのように行うかを理解することを目的としている。
肯定的なレビューをもたらす論文の最も重要な特徴は、明確で支持された検証、興味深い問題、そして新規性である。
著者は論文でその作品の貢献を非常に明確にすべきである。
論文 参考訳(メタデータ) (2020-09-02T17:31:45Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z) - Context-aware Helpfulness Prediction for Online Product Reviews [34.47368084659301]
本稿では,レビューの有用性を評価するニューラルディープ・ラーニング・モデルを提案する。
このモデルは畳み込みニューラルネットワーク(CNN)とコンテキスト認識符号化機構に基づいている。
我々は、人間の注釈付きデータセット上でモデルを検証し、その結果、既存のモデルよりも有益性予測に優れていたことを示す。
論文 参考訳(メタデータ) (2020-04-27T18:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。