論文の概要: CRMAgent: A Multi-Agent LLM System for E-Commerce CRM Message Template Generation
- arxiv url: http://arxiv.org/abs/2507.08325v1
- Date: Fri, 11 Jul 2025 05:31:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.250569
- Title: CRMAgent: A Multi-Agent LLM System for E-Commerce CRM Message Template Generation
- Title(参考訳): CRMAgent:EコマースCRMメッセージテンプレート生成のためのマルチエージェントLLMシステム
- Authors: Yinzhu Quan, Xinrui Li, Ying Chen,
- Abstract要約: 大規模言語モデル(LLM)上に構築されたマルチエージェントシステムであるCRMAgentを紹介する。
グループベースの学習により、エージェントは、同じオーディエンスセグメント内の商人自身のトップパフォーマンスメッセージから学ぶことができる。
Retrieval-and-adaptationは、同じオーディエンスセグメントを共有し、voucherタイプと製品カテゴリで高い類似性を示すテンプレートをフェッチする。
第3に、ルールベースのフォールバックは、適切な参照が利用できない場合に、軽量なゼロショットリライトを提供する。
- 参考スコア(独自算出の注目度): 4.322428195823703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In e-commerce private-domain channels such as instant messaging and e-mail, merchants engage customers directly as part of their Customer Relationship Management (CRM) programmes to drive retention and conversion. While a few top performers excel at crafting outbound messages, most merchants struggle to write persuasive copy because they lack both expertise and scalable tools. We introduce CRMAgent, a multi-agent system built on large language models (LLMs) that generates high-quality message templates and actionable writing guidance through three complementary modes. First, group-based learning enables the agent to learn from a merchant's own top-performing messages within the same audience segment and rewrite low-performing ones. Second, retrieval-and-adaptation fetches templates that share the same audience segment and exhibit high similarity in voucher type and product category, learns their successful patterns, and adapts them to the current campaign. Third, a rule-based fallback provides a lightweight zero-shot rewrite when no suitable references are available. Extensive experiments show that CRMAgent consistently outperforms merchants' original templates, delivering significant gains in both audience-match and marketing-effectiveness metrics.
- Abstract(参考訳): インスタントメッセージングや電子メールなどのeコマースプライベートドメインチャネルでは、小売業者は顧客関係管理(CRM)プログラムの一部として直接顧客と関わり、維持と変換を促進する。
アウトバウンドメッセージの作成を得意とするトップパフォーマーは少ないが、ほとんどの商人は、専門知識とスケーラブルなツールが欠如しているため、説得力のあるコピーを書くのに苦労している。
本稿では,大規模言語モデル(LLM)上に構築されたマルチエージェントシステムであるCRMAgentを紹介する。
まず、グループベースの学習により、エージェントは、同じオーディエンスセグメント内の商人自身のトップパフォーマンスメッセージから学び、低いパフォーマンスメッセージを書き直すことができる。
第二に、検索と適応は、同じオーディエンスセグメントを共有し、ブーチャータイプと製品カテゴリに高い類似性を示すテンプレートをフェッチし、彼らの成功パターンを学習し、それらを現在のキャンペーンに適応させる。
第3に、ルールベースのフォールバックは、適切な参照が利用できない場合に、軽量なゼロショットリライトを提供する。
大規模な実験の結果、CRMAgentはマーチャントのオリジナルテンプレートを一貫して上回り、オーディエンスマッチとマーケティング効率の指標の両方で大きな利益をもたらしている。
関連論文リスト
- Grounded Persuasive Language Generation for Automated Marketing [59.175257431078435]
本稿では,大規模言語モデル(LLM)を用いて,説得力のあるマーケティングコンテンツの自動生成を実現するエージェントフレームワークを開発する。
提案手法は,生成したコンテンツとユーザの好みを一致させると同時に,有用な事実属性を強調表示するように設計されている。
我々は、不動産マーケティングの分野において、潜在的住宅購入者の焦点を絞った体系的な人物実験を行う。
論文 参考訳(メタデータ) (2025-02-24T03:36:57Z) - Can a Single Model Master Both Multi-turn Conversations and Tool Use? CoALM: A Unified Conversational Agentic Language Model [8.604654904400027]
対話型エージェント言語モデル(Conversational Agentic Language Model)を導入する。
CoALM-ITを用いて、上位ドメイン固有モデルを上回る3つのモデル、CoALM 8B、CoALM 70B、CoALM 405Bを訓練する。
論文 参考訳(メタデータ) (2025-02-12T22:18:34Z) - CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [57.49519639951552]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - FOCUS: Forging Originality through Contrastive Use in Self-Plagiarism for Language Models [38.76912842622624]
プレトレーニング言語モデル(PLM)は、様々な自然言語生成(NLG)タスクにおいて印象的な結果を示している。
本研究では, PLMが生成するテキストの独創性を高めることを目的とした, 独特な「自己プラギアリズム」コントラスト的復号戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T19:17:00Z) - Generating Attractive and Authentic Copywriting from Customer Reviews [7.159225692930055]
本稿では,顧客のレビューに基づいて,商品の実践的体験を手軽に提供し,コピーライティングを生成することを提案する。
そこで我々は,強化学習により強化されたシーケンス・ツー・シーケンス(Sequence-to-Sequence)フレームワークを開発した。
我々のフレームワークは、LLaMA-2-chat-7BやGPT-3.5など、既存のベースラインやゼロショットの大規模言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-04-22T06:33:28Z) - MIMIR: A Streamlined Platform for Personalized Agent Tuning in Domain Expertise [49.83486066403154]
textscMimirは、パーソナライズされたエージェントチューニングのためのカスタマイズ可能なパイプラインを提供する、合理化されたプラットフォームである。
textscMimirは、同じ入力から一般的な命令チューニングデータセットの生成をサポートする。
textscMimirはこれらの機能を統合されたエンドツーエンドプラットフォームに統合し、パーソナライズされたファイルのアップロードからワンクリックエージェントの微調整まで、あらゆることを容易にする。
論文 参考訳(メタデータ) (2024-04-03T23:42:38Z) - A Multimodal In-Context Tuning Approach for E-Commerce Product
Description Generation [47.70824723223262]
マーケティングキーワードを付加した画像から製品記述を生成するための新しい設定を提案する。
本稿では, ModICT という, シンプルで効果的なマルチモーダル・インコンテキスト・チューニング手法を提案する。
実験の結果、ModICTは従来の方法と比較して精度(ルージュ-Lでは最大3.3%)と多様性(D-5では最大9.4%)を著しく改善することが示された。
論文 参考訳(メタデータ) (2024-02-21T07:38:29Z) - FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - Continuous Prompt Tuning Based Textual Entailment Model for E-commerce
Entity Typing [12.77583836715184]
電子商取引における急速な活動は、一般的なエンティティタイピングによって解決が難しい新しいエンティティの急速な台頭につながっている。
本稿では,eコマースエンティティタイピングのための連続的なプロンプトチューニングに基づく仮説と融合埋め込みを用いたテキストエンテーメントモデルを提案する。
提案モデルでは,ベースラインのBERTエンティティタイピングモデルと比較して平均F1スコアが約2%向上することを示した。
論文 参考訳(メタデータ) (2022-11-04T14:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。