論文の概要: Mobile Application Review Summarization using Chain of Density Prompting
- arxiv url: http://arxiv.org/abs/2506.14192v1
- Date: Tue, 17 Jun 2025 05:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.336318
- Title: Mobile Application Review Summarization using Chain of Density Prompting
- Title(参考訳): 密度プロンプトの連鎖を用いたモバイルアプリケーションレビュー要約
- Authors: Shristi Shrestha, Anas Mahmoud,
- Abstract要約: モバイルアプリレビューを要約するために,LLM(Large Language Models)を活用しています。
我々は、OpenAI GPT-4を誘導するために、Chain of Density(CoD)プロンプトを使用し、抽象的で、意味的に密で、容易に解釈可能な要約を生成する。
- 参考スコア(独自算出の注目度): 1.90298817989995
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mobile app users commonly rely on app store ratings and reviews to find apps that suit their needs. However, the sheer volume of reviews available on app stores can lead to information overload, thus impeding users' ability to make informed app selection decisions. To address this challenge, we leverage Large Language Models (LLMs) to summarize mobile app reviews. In particular, we use the Chain of Density (CoD) prompt to guide OpenAI GPT-4 to generate abstractive, semantically dense, and easily interpretable summaries of mobile app reviews. The CoD prompt is engineered to iteratively extract salient entities from the source text and fuse them into a fixed-length summary. We evaluate the performance of our approach using a large dataset of mobile app reviews. We further conduct an empirical evaluation with 48 study participants to assess the readability of the generated summaries. Our results demonstrate that adapting the CoD prompt to focus on app features improves its ability to extract key themes from user reviews and generate natural language summaries tailored for end-user consumption. The prompt also manages to maintain the readability of the generated summaries while increasing their semantic density. Our work in this paper aims to improve mobile app users' experience by providing an effective mechanism for summarizing important user feedback in the review stream.
- Abstract(参考訳): モバイルアプリのユーザーは、アプリストアの格付けやレビューを利用して、自分のニーズに合ったアプリを見つける。
しかし、アプリストアで利用可能なレビューの量が多ければ多いほど、情報の過負荷につながる可能性があるため、ユーザがアプリ選択の判断を下す能力を損なうことになる。
この課題に対処するため、モバイルアプリレビューを要約するためにLLM(Large Language Models)を活用しました。
特に、我々は、OpenAI GPT-4をガイドするために、Chain of Density(CoD)プロンプトを使用して、モバイルアプリレビューの抽象的で、セマンティックに、簡単に解釈可能な要約を生成する。
CoDプロンプトは、ソーステキストから有能なエンティティを反復的に抽出し、それらを固定長の要約に融合するように設計されている。
モバイルアプリレビューの大規模なデータセットを用いて,アプローチのパフォーマンスを評価した。
さらに,48名の被験者による実験的な評価を行い,生成した要約の可読性を評価する。
以上の結果から,CoDプロンプトをアプリ機能に適応させることにより,ユーザレビューから重要なテーマを抽出し,エンドユーザー消費に適した自然言語要約を生成する能力が向上することが示唆された。
プロンプトは、生成した要約の可読性を維持しつつ、セマンティックな密度を増大させる。
本稿では,レビューストリームで重要なユーザフィードバックを要約する効果的なメカニズムを提供することで,モバイルアプリユーザエクスペリエンスの向上を目的とする。
関連論文リスト
- LazyReview A Dataset for Uncovering Lazy Thinking in NLP Peer Reviews [74.87393214734114]
この研究は、微粒な遅延思考カテゴリで注釈付けされたピアレビュー文のデータセットであるLazyReviewを紹介している。
大規模言語モデル(LLM)は、ゼロショット設定でこれらのインスタンスを検出するのに苦労する。
命令ベースのデータセットの微調整により、パフォーマンスが10~20ポイント向上する。
論文 参考訳(メタデータ) (2025-04-15T10:07:33Z) - From Voice to Value: Leveraging AI to Enhance Spoken Online Reviews on the Go [21.811104609265158]
音声入力によるレビューを提供するモバイルアプリケーションであるVocalizerを開発した。
調査の結果,AIエージェントを頻繁に利用し,レビューに詳細な情報を加えることができた。
また、インタラクティブなAI機能によって、ユーザーの自己効力感やレビューをオンラインで共有する意欲が向上することを示す。
論文 参考訳(メタデータ) (2024-12-06T21:59:47Z) - Exploring Requirements Elicitation from App Store User Reviews Using Large Language Models [0.0]
本研究は,大規模言語モデルのパワーを活用して,ユーザレビューの分析を行い,自動要求の導出を行うアプローチを提案する。
有用性を示すようにラベル付けされたアプリレビューのデータセット上に,確立された3つのLMM BERT, DistilBERT, GEMMAを微調整した。
評価の結果、BERTの精度は92.40%、F1スコアは92.39%であり、有用レビューを正確に分類する効果が示された。
論文 参考訳(メタデータ) (2024-09-23T18:57:31Z) - Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Zero-shot Bilingual App Reviews Mining with Large Language Models [0.7340017786387767]
Mini-BARは、英語とフランス語の両方でユーザーレビューのゼロショットマイニングを実行するために、大きな言語モデル(LLM)を統合するツールである。
Mini-BARの性能を評価するために、6,000の英語と6000のフランス語の注釈付きユーザレビューを含むデータセットを作成しました。
論文 参考訳(メタデータ) (2023-11-06T12:36:46Z) - Proactive Prioritization of App Issues via Contrastive Learning [2.6763498831034043]
本稿では,アプリの問題を積極的に優先順位付けする新しいフレームワークPPriorを提案する。
PPriorはトレーニング済みのT5モデルを採用し、3段階で動作する。
フェーズ1は、事前訓練されたT5モデルを、セルフ教師された方法でユーザレビューデータに適用する。
第2フェーズでは、コントラストトレーニングを活用して、ユーザレビューの汎用的かつタスクに依存しない表現を学習する。
論文 参考訳(メタデータ) (2023-03-12T06:23:10Z) - Prompted Opinion Summarization with GPT-3.5 [115.95460650578678]
GPT-3.5モデルは人体評価において非常に高い性能を示す。
我々は,標準評価指標がこれを反映していないことを論じ,忠実性,事実性,汎用性を重視した3つの新しい指標を導入する。
論文 参考訳(メタデータ) (2022-11-29T04:06:21Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。