論文の概要: CARTS: Collaborative Agents for Recommendation Textual Summarization
- arxiv url: http://arxiv.org/abs/2506.17765v1
- Date: Sat, 21 Jun 2025 17:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.572716
- Title: CARTS: Collaborative Agents for Recommendation Textual Summarization
- Title(参考訳): CARTS:レコメンデーションテキスト要約のための協調エージェント
- Authors: Jiao Chen, Kehui Yao, Reza Yousefi Maragheh, Kai Zhao, Jianpeng Xu, Jason Cho, Evren Korpeoglu, Sushant Kumar, Kannan Achan,
- Abstract要約: CARTSは、レコメンデーションシステムにおける構造化要約のために設計されたマルチエージェントフレームワークである。
タスクを3つのステージ – 生成拡張生成、洗練円、仲裁 – に分解する。
タイトルの関連性を高め、ユーザエンゲージメントのメトリクスを改善する。
- 参考スコア(独自算出の注目度): 14.417465931316066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current recommendation systems often require some form of textual data summarization, such as generating concise and coherent titles for product carousels or other grouped item displays. While large language models have shown promise in NLP domains for textual summarization, these approaches do not directly apply to recommendation systems, where explanations must be highly relevant to the core features of item sets, adhere to strict word limit constraints. In this paper, we propose CARTS (Collaborative Agents for Recommendation Textual Summarization), a multi-agent LLM framework designed for structured summarization in recommendation systems. CARTS decomposes the task into three stages-Generation Augmented Generation (GAG), refinement circle, and arbitration, where successive agent roles are responsible for extracting salient item features, iteratively refining candidate titles based on relevance and length feedback, and selecting the final title through a collaborative arbitration process. Experiments on large-scale e-commerce data and live A/B testing show that CARTS significantly outperforms single-pass and chain-of-thought LLM baselines, delivering higher title relevance and improved user engagement metrics.
- Abstract(参考訳): 現在のレコメンデーションシステムは、製品カルーセルや他のグループ化されたアイテムディスプレイの簡潔さやコヒーレントなタイトルを生成するなど、何らかのテキストデータ要約を必要とすることが多い。
大規模言語モデルは、テキスト要約のためのNLPドメインにおいて有望であることを示しているが、これらのアプローチは、アイテムセットの中核的な特徴に強く関連し、厳密な単語制限に従わなければならないレコメンデーションシステムには直接適用されない。
本稿では,レコメンデーションシステムにおける構造化要約のための多エージェントLCMフレームワークであるCARTSを提案する。
CARTSは、タスクを3つのステージに分解し、GAG(Generation Augmented Generation)、改良サークル(Refinement circle)、仲裁を行う。
大規模なEコマースデータとライブA/Bテストの実験によると、CARTSはシングルパスとチェーンオブLLMベースラインを著しく上回り、より高いタイトル関連性を提供し、ユーザエンゲージメントの指標を改善している。
関連論文リスト
- Generative Product Recommendations for Implicit Superlative Queries [21.750990820244983]
Recommender Systemsでは、ユーザーは「トレイルランニングのためのベストシューズ」のような間接的、曖昧、または不明確なクエリを通じて、最高の製品を求めることが多い。
本研究では,大規模言語モデルがランキングに暗黙の属性を生成できるかを検討するとともに,そのようなクエリの製品レコメンデーションを改善するための理由についても検討する。
論文 参考訳(メタデータ) (2025-04-26T00:05:47Z) - REGEN: A Dataset and Benchmarks with Natural Language Critiques and Narratives [4.558818396613368]
Amazon Product Reviewsデータセットを拡張して,2つの重要な自然言語機能を取り入れています。
ストーリーには、製品の支持、購入説明、ユーザの好みの要約が含まれる。
論文 参考訳(メタデータ) (2025-03-14T23:47:46Z) - Breaking the Clusters: Uniformity-Optimization for Text-Based Sequential Recommendation [17.042627742322427]
従来のシーケンシャルレコメンデーションメソッドは、時間の経過とともにユーザの好みをキャプチャするために明示的なアイテムIDに依存している。
近年,テキストのみの情報をレコメンデーションに活用する研究が進んでいる。
我々は3つのペアワイズアイテムサンプリング戦略を利用するフレームワークUniTを提案する。
論文 参考訳(メタデータ) (2025-02-19T08:35:28Z) - Knowledge-Enhanced Conversational Recommendation via Transformer-based Sequential Modelling [58.681146735761224]
まず,トランスフォーマーをベースとした逐次的対話推薦手法TSCRを提案し,会話の逐次的依存関係をモデル化する。
次に,TSCRの知識グラフ拡張版であるTSCRKGを提案する。
実験の結果,TSCRモデルは最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-12-03T12:20:56Z) - Learning Partially Aligned Item Representation for Cross-Domain Sequential Recommendation [72.73379646418435]
クロスドメインシーケンシャルレコメンデーションは、ドメイン間でのユーザのシーケンシャルな好みを明らかにすることを目的としている。
ミスアライメントアイテム表現は、サブ最適シーケンシャルモデリングとユーザ表現アライメントにつながる可能性がある。
textbfCross- domain item representation textbfAlignment for textbfCross-textbfDomain textbfSequential textbfRecommendationを提案する。
論文 参考訳(メタデータ) (2024-05-21T03:25:32Z) - Reindex-Then-Adapt: Improving Large Language Models for Conversational Recommendation [50.19602159938368]
大規模言語モデル(LLM)は、会話レコメンデーションシステムに革命をもたらしている。
本稿では,マルチトークンのタイトルを単一トークンに変換するReindex-Then-Adapt(RTA)フレームワークを提案する。
本フレームワークでは,3つの対話推薦データセットの精度向上を実証する。
論文 参考訳(メタデータ) (2024-05-20T15:37:55Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical
Supervision from Extractive Summaries [46.183289748907804]
長文生成のためのアウトライン化,アウトライン化,エラボレートを行うパイプラインシステムSOEを提案する。
SOEは、より高速な収束速度とともに、非常に優れた品質の長いテキストを生成する。
論文 参考訳(メタデータ) (2020-10-14T13:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。