論文の概要: Pre-Trained Neural Language Models for Automatic Mobile App User
Feedback Answer Generation
- arxiv url: http://arxiv.org/abs/2202.02294v1
- Date: Fri, 4 Feb 2022 18:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 14:32:59.069376
- Title: Pre-Trained Neural Language Models for Automatic Mobile App User
Feedback Answer Generation
- Title(参考訳): 自動モバイルアプリユーザフィードバック回答生成のための事前学習型ニューラルネットワークモデル
- Authors: Yue Cao, Fatemeh H. Fard
- Abstract要約: 調査によると、モバイルアプリのユーザからのアプリストアへのフィードバックに対する開発者の回答は、アプリのスターレーティングを増加させる可能性がある。
アプリの開発者がユーザの問題に関連する回答を生成するのを助けるために、最近の研究では、回答を自動的に生成するモデルを開発している。
本稿では,事前学習されたニューラルネットワークモデル(PTM)を評価し,モバイルアプリのユーザフィードバックに対する応答を生成する。
- 参考スコア(独自算出の注目度): 9.105367401167129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies show that developers' answers to the mobile app users' feedbacks on
app stores can increase the apps' star rating. To help app developers generate
answers that are related to the users' issues, recent studies develop models to
generate the answers automatically. Aims: The app response generation models
use deep neural networks and require training data. Pre-Trained neural language
Models (PTM) used in Natural Language Processing (NLP) take advantage of the
information they learned from a large corpora in an unsupervised manner, and
can reduce the amount of required training data. In this paper, we evaluate
PTMs to generate replies to the mobile app user feedbacks. Method: We train a
Transformer model from scratch and fine-tune two PTMs to evaluate the generated
responses, which are compared to RRGEN, a current app response model. We also
evaluate the models with different portions of the training data. Results: The
results on a large dataset evaluated by automatic metrics show that PTMs obtain
lower scores than the baselines. However, our human evaluation confirms that
PTMs can generate more relevant and meaningful responses to the posted
feedbacks. Moreover, the performance of PTMs has less drop compared to other
models when the amount of training data is reduced to 1/3. Conclusion: PTMs are
useful in generating responses to app reviews and are more robust models to the
amount of training data provided. However, the prediction time is 19X than
RRGEN. This study can provide new avenues for research in adapting the PTMs for
analyzing mobile app user feedbacks. Index Terms-mobile app user feedback
analysis, neural pre-trained language models, automatic answer generation
- Abstract(参考訳): 調査によると、モバイルアプリのユーザからのアプリストアへのフィードバックに対する開発者の回答は、アプリのスターレーティングを高めることができる。
アプリ開発者がユーザの問題に関連する回答を生成するのを助けるために、最近の研究では、回答を自動的に生成するモデルを開発している。
目的: アプリ応答生成モデルはディープニューラルネットワークを使用し、トレーニングデータを必要とする。
自然言語処理(NLP)で使用される事前学習ニューラルネットワークモデル(PTM)は、大規模コーパスから学んだ情報を教師なしの方法で活用し、必要なトレーニングデータの量を削減することができる。
本稿では,PTMを評価し,モバイルアプリのユーザフィードバックに対する応答を生成する。
方法: トランスフォーマーモデルをスクラッチからトレーニングし、2つのptmを微調整して生成した応答を評価し,現在のアプリケーション応答モデルであるrrgenと比較する。
また、トレーニングデータの異なる部分によるモデルの評価も行います。
結果: 自動測定で評価した大規模データセットの結果から, PTMはベースラインよりも低いスコアを得ることがわかった。
しかし,人間の評価では,PTMが投稿されたフィードバックに対してより関連性があり有意義な応答を得られることが確認されている。
さらに,トレーニングデータの量を1/3に減らすと,他のモデルに比べてPTMの性能は低下する。
結論: PTMはアプリレビューに対する反応を生成するのに役立ち、提供されるトレーニングデータの量に対してより堅牢なモデルです。
しかし、予測時間はRRGENの19倍である。
本研究は,モバイルアプリのユーザフィードバック分析にptmを適用するための新たな方法を提案する。
Index Terms-mobileアプリのユーザフィードバック分析、ニューラル事前学習言語モデル、自動回答生成
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Self-Taught Evaluators [77.92610887220594]
本稿では,人工的なトレーニングデータのみを用いて,人間のアノテーションを使わずに即興で証明することを目的としたアプローチを提案する。
我々の自己学習評価器は、RewardBench上で75.4から88.3までの強いLDMを改善することができる。
論文 参考訳(メタデータ) (2024-08-05T17:57:02Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - INGENIOUS: Using Informative Data Subsets for Efficient Pre-Training of
Language Models [40.54353850357839]
トレーニングコーパスの高度に代表的なサブセットを選択するために、サブモジュラー最適化を利用する方法を示す。
その結果,完全学習モデルの性能の最大$sim99%が得られた。
論文 参考訳(メタデータ) (2023-05-11T09:24:41Z) - Federated Learning with Noisy User Feedback [26.798303045807508]
フェデレートラーニング(FL)は、センシティブなユーザデータを使用してエッジデバイス上でMLモデルをトレーニングする方法として登場した。
本稿では,肯定的および否定的なユーザフィードバックを用いたFLモデルのトレーニング戦略を提案する。
本研究では,本手法が自己学習ベースラインよりも大幅に向上し,完全教師付きモデルに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-05-06T09:14:24Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Evaluating Pre-Trained Models for User Feedback Analysis in Software
Engineering: A Study on Classification of App-Reviews [2.66512000865131]
アプリレビュー分類のための事前学習型ニューラルネットワークモデル(PTM)の精度と時間効率について検討した。
複数の設定でPTMを評価するために,異なる研究をセットアップした。
いずれの場合も、MicroとMacro Precision、Recall、F1スコアが使用されます。
論文 参考訳(メタデータ) (2021-04-12T23:23:45Z) - Utilizing Self-supervised Representations for MOS Prediction [51.09985767946843]
既存の評価は通常、クリーンな参照または平行な地上真実データを必要とする。
一方、主観的テストは、追加のクリーンデータや並列データを必要としず、人間の知覚とよりよく相関する。
基礎的真理データを必要とせず,人間の知覚とよく相関する自動評価手法を開発した。
論文 参考訳(メタデータ) (2021-04-07T09:44:36Z) - Dialogue Response Ranking Training with Large-Scale Human Feedback Data [52.12342165926226]
ソーシャルメディアのフィードバックデータを利用して、フィードバック予測のための大規模なトレーニングデータセットを構築します。
我々は,1300万対の人間のフィードバックデータに基づくGPT-2モデルであるDialogRPTを訓練した。
我々のランキングは、Redditのフィードバックを予測する上で、従来のダイアログの難易度ベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-15T10:50:05Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。