論文の概要: Automating Explanation Need Management in App Reviews: A Case Study from the Navigation App Industry
- arxiv url: http://arxiv.org/abs/2501.08087v1
- Date: Tue, 14 Jan 2025 12:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:32.622859
- Title: Automating Explanation Need Management in App Reviews: A Case Study from the Navigation App Industry
- Title(参考訳): アプリレビューにおける説明の必要性管理の自動化:ナビゲーションアプリ産業を事例として
- Authors: Martin Obaidi, Nicolas Voß, Jakob Droste, Hannah Deters, Marc Herrmann, Jannik Fischbach, Kurt Schneider,
- Abstract要約: 本稿では,ユーザレビューにおける説明要求を管理するための半自動アプローチを提案する。
このアプローチは分類のカテゴリを活用して、レビューを分類し、関連する内部チームやレスポンスソースに割り当てる。
Google Play StoreとApple App Storeの2,366のアプリレビューが取り壊され、説明の必要性を検出するために単語とフレーズのフィルタリングシステムを使用して分析された。
- 参考スコア(独自算出の注目度): 1.6431822728701062
- License:
- Abstract: Providing explanations in response to user reviews is a time-consuming and repetitive task for companies, as many reviews present similar issues requiring nearly identical responses. To improve efficiency, this paper proposes a semi-automated approach to managing explanation needs in user reviews. The approach leverages taxonomy categories to classify reviews and assign them to relevant internal teams or sources for responses. 2,366 app reviews from the Google Play Store and Apple App Store were scraped and analyzed using a word and phrase filtering system to detect explanation needs. The detected needs were categorized and assigned to specific internal teams at the company Graphmasters GmbH, using a hierarchical assignment strategy that prioritizes the most relevant teams. Additionally, external sources, such as existing support articles and past review responses, were integrated to provide comprehensive explanations. The system was evaluated through interviews and surveys with the Graphmasters support team, which consists of four employees. The results showed that the hierarchical assignment method improved the accuracy of team assignments, with correct teams being identified in 79.2% of cases. However, challenges in interrater agreement and the need for new responses in certain cases, particularly for Apple App Store reviews, were noted. Future work will focus on refining the taxonomy and enhancing the automation process to reduce manual intervention further.
- Abstract(参考訳): ユーザレビューに対する説明を提供することは、企業にとって時間と反復的な作業であり、多くのレビューは、ほぼ同じレスポンスを必要とする同様の問題を提示している。
本稿では,ユーザレビューにおける説明要求を半自動で管理する手法を提案する。
このアプローチは分類のカテゴリを活用して、レビューを分類し、関連する内部チームやレスポンスソースに割り当てる。
Google Play StoreとApple App Storeの2,366のアプリレビューが取り壊され、説明の必要性を検出するために単語とフレーズのフィルタリングシステムを使用して分析された。
検出されたニーズは、最も関連性の高いチームを優先順位付けする階層的な割り当て戦略を使用して、企業Graphmasters GmbHの特定の内部チームに分類され、割り当てられた。
さらに、既存のサポート記事や過去のレビュー回答などの外部ソースを統合して、包括的な説明を行った。
このシステムは、4人の従業員からなるGraphmastersサポートチームとのインタビューや調査を通じて評価された。
その結果、階層的な割り当て手法によってチームの割り当ての精度が向上し、79.2%のケースで正しいチームが特定された。
しかし、インターラッター契約の課題と、特にApple App Storeのレビューにおいて、いくつかのケースで新しいレスポンスの必要性が指摘された。
今後は、手作業による介入を減らすため、分類の精査と自動化プロセスの強化に注力する。
関連論文リスト
- Automated Focused Feedback Generation for Scientific Writing Assistance [6.559560602099439]
SWIF$2$T:Scientific WrIting Focused Feedback Tool。
特定の、実行可能な、一貫性のあるコメントを生成し、科学論文の弱点を特定したり、修正案を提案するように設計されている。
科学的論文の弱点を引用し,300件の査読データセットを収集し,人的評価を行う。
その結果, SWIF$2$Tのフィードバックは, 他のアプローチと比較して, 特異性, 読みやすさ, 全体的な有用性を示した。
論文 参考訳(メタデータ) (2024-05-30T20:56:41Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - Code Review Automation: Strengths and Weaknesses of the State of the Art [14.313783664862923]
3つのコードレビュー自動化技術は、この論文で説明した2つのタスクで成功するか失敗する傾向があります。
この研究は質的な焦点が強く、正確な予測と間違った予測の分析に105時間のマニュアルインスペクションが費やされている。
論文 参考訳(メタデータ) (2024-01-10T13:00:18Z) - Explanation Needs in App Reviews: Taxonomy and Automated Detection [2.545133021829296]
アプリレビューでユーザによって表現される説明の必要性について検討する。
8つのアプリから1,730のアプリレビューを手作業でコーディングし、説明要求の分類を導きました。
ベスト分類器は、4つの異なるアプリの486種類の説明の必要性を認識し、重み付けされたFスコアは86%である。
論文 参考訳(メタデータ) (2023-07-10T06:48:01Z) - No more Reviewer #2: Subverting Automatic Paper-Reviewer Assignment
using Adversarial Learning [25.70062566419791]
この自動化は,逆学習を用いて操作可能であることを示す。
提案する攻撃は、与えられた論文に適応し、その課題を誤解させ、独自のレビュアーを選択する。
論文 参考訳(メタデータ) (2023-03-25T11:34:27Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - On the Social and Technical Challenges of Web Search Autosuggestion
Moderation [118.47867428272878]
自動提案は通常、検索ログと文書表現のコーパスに基づいてトレーニングされた機械学習(ML)システムによって生成される。
現在の検索エンジンは、このような問題のある提案を抑えるのに、ますます熟練している。
問題のある提案のいくつかの側面、パイプラインに沿った困難な問題、そしてWeb検索を超えたアプリケーションの増加になぜ私たちの議論が適用されるのかについて論じる。
論文 参考訳(メタデータ) (2020-07-09T19:22:00Z) - Asking and Answering Questions to Evaluate the Factual Consistency of
Summaries [80.65186293015135]
本稿では,QAGS (kags) と呼ばれる自動評価プロトコルを提案する。
QAGSは、要約とそのソースについて質問すると、要約が実際にソースと一致している場合、同様の回答が得られます。
QAGSは、使いやすく、現実的に一貫性のあるテキストを自動的に生成するための有望なツールであると考えています。
論文 参考訳(メタデータ) (2020-04-08T20:01:09Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。