論文の概要: App-Aware Response Synthesis for User Reviews
- arxiv url: http://arxiv.org/abs/2007.15793v3
- Date: Tue, 10 Nov 2020 19:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 07:15:17.031672
- Title: App-Aware Response Synthesis for User Reviews
- Title(参考訳): ユーザレビューのためのアプリアウェア応答合成
- Authors: Umar Farooq, A.B. Siddique, Fuad Jamour, Zhijia Zhao, Vagelis
Hristidis
- Abstract要約: AAR Synthはアプリケーション対応の応答合成システムである。
アプリ説明から最も関連性の高いアプリレビューと、最も関連性の高いスニペットを検索する。
融合機械学習モデルは、セq2seqモデルと機械読解モデルを統合する。
- 参考スコア(独自算出の注目度): 7.466973484411213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Responding to user reviews promptly and satisfactorily improves application
ratings, which is key to application popularity and success. The proliferation
of such reviews makes it virtually impossible for developers to keep up with
responding manually. To address this challenge, recent work has shown the
possibility of automatic response generation. However, because the training
review-response pairs are aggregated from many different apps, it remains
challenging for such models to generate app-specific responses, which, on the
other hand, are often desirable as apps have different features and concerns.
Solving the challenge by simply building a model per app (i.e., training with
review-response pairs of a single app) may be insufficient because individual
apps have limited review-response pairs, and such pairs typically lack the
relevant information needed to respond to a new review. To enable app-specific
response generation, this work proposes AARSynth: an app-aware response
synthesis system. The key idea behind AARSynth is to augment the seq2seq model
with information specific to a given app. Given a new user review, it first
retrieves the top-K most relevant app reviews and the most relevant snippet
from the app description. The retrieved information and the new user review are
then fed into a fused machine learning model that integrates the seq2seq model
with a machine reading comprehension model. The latter helps digest the
retrieved reviews and app description. Finally, the fused model generates a
response that is customized to the given app. We evaluated AARSynth using a
large corpus of reviews and responses from Google Play. The results show that
AARSynth outperforms the state-of-the-art system by 22.2% on BLEU-4 score.
Furthermore, our human study shows that AARSynth produces a statistically
significant improvement in response quality compared to the state-of-the-art
system.
- Abstract(参考訳): ユーザレビューに対する反応は、アプリケーションの人気と成功の鍵となるアプリケーションレーティングを、迅速かつ良好に改善します。
このようなレビューの拡散は、開発者が手動で対応し続けることを事実上不可能にする。
この課題に対処するため、最近の研究は自動応答生成の可能性を示している。
しかし、トレーニングレビューとレスポンスのペアは多くの異なるアプリから集約されているため、これらのモデルがアプリ固有の応答を生成することは依然として困難であり、一方、アプリが異なる機能と関心を持っているため、しばしば望ましい。
個々のアプリにはレビューとレスポンスのペアが限られており、そのようなペアは一般的に、新しいレビューに対応するために必要な関連情報が欠けているため、アプリごとにモデルを構築するだけでは解決できない。
アプリ固有の応答生成を可能にするために,アプリケーション対応応答合成システムであるAARSynthを提案する。
AARSynthの背景にある重要なアイデアは、特定のアプリ固有の情報でSeq2seqモデルを拡張することだ。
新しいユーザーレビューをすると、最初に最も関連するアプリレビューのトップkと最も関連するスニペットをアプリ説明から取り出す。
得られた情報と新しいユーザーレビューは、seq2seqモデルと機械学習理解モデルを統合する融合機械学習モデルに送られます。
後者は、検索したレビューとアプリ記述の消化に役立つ。
最後に、融合モデルは、所定のアプリにカスタマイズされたレスポンスを生成する。
AARSynthをGoogle Playから大量のレビューとレスポンスを用いて評価した。
その結果,aarsynth は bleu-4 スコアで 22.2% の差を示した。
さらに,AARSynthは,最先端システムと比較して,応答品質が統計的に有意に向上していることを示す。
関連論文リスト
- Transformer-based Model for ASR N-Best Rescoring and Rewriting [4.906869033128613]
本研究では,N-best仮説の完全コンテキストを並列に探索することにより,書き換えと書き換えが可能なトランスフォーマーモデルを提案する。
我々のRescore+RewriteモデルはRescoreのみのベースラインよりも優れており、平均8.6%の単語誤り率(WER)がASRシステムに対して単独で減少することを示す。
論文 参考訳(メタデータ) (2024-06-12T13:39:44Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - RefuteBench: Evaluating Refuting Instruction-Following for Large Language Models [17.782410287625645]
本稿では,質問応答,機械翻訳,電子メール作成などのタスクをカバーするベンチマークRefuteBenchを提案する。
評価の目的は、モデルが反響命令の形で肯定的にフィードバックを受けられるか、会話を通してユーザー要求に一貫して従えられるかを評価することである。
論文 参考訳(メタデータ) (2024-02-21T01:39:56Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Pre-Trained Neural Language Models for Automatic Mobile App User
Feedback Answer Generation [9.105367401167129]
調査によると、モバイルアプリのユーザからのアプリストアへのフィードバックに対する開発者の回答は、アプリのスターレーティングを増加させる可能性がある。
アプリの開発者がユーザの問題に関連する回答を生成するのを助けるために、最近の研究では、回答を自動的に生成するモデルを開発している。
本稿では,事前学習されたニューラルネットワークモデル(PTM)を評価し,モバイルアプリのユーザフィードバックに対する応答を生成する。
論文 参考訳(メタデータ) (2022-02-04T18:26:55Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Evaluation Toolkit For Robustness Testing Of Automatic Essay Scoring
Systems [64.4896118325552]
モデル逆算評価スキームと関連するメトリクスを用いて、現状のAESモデルを評価する。
AESモデルは非常に過大評価されていることがわかった。質問の話題に関係のない内容の重い修正(25%まで)でさえ、モデルが生み出すスコアを低下させることはない。
論文 参考訳(メタデータ) (2020-07-14T03:49:43Z) - Asking and Answering Questions to Evaluate the Factual Consistency of
Summaries [80.65186293015135]
本稿では,QAGS (kags) と呼ばれる自動評価プロトコルを提案する。
QAGSは、要約とそのソースについて質問すると、要約が実際にソースと一致している場合、同様の回答が得られます。
QAGSは、使いやすく、現実的に一貫性のあるテキストを自動的に生成するための有望なツールであると考えています。
論文 参考訳(メタデータ) (2020-04-08T20:01:09Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。