論文の概要: LLM-Driven E-Commerce Marketing Content Optimization: Balancing Creativity and Conversion
- arxiv url: http://arxiv.org/abs/2505.23809v1
- Date: Tue, 27 May 2025 08:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.524016
- Title: LLM-Driven E-Commerce Marketing Content Optimization: Balancing Creativity and Conversion
- Title(参考訳): LLM-Driven E-Commerce Marketing Content Optimization: Balancing Creativity and Conversion
- Authors: Haowei Yang, Haotian Lyu, Tianle Zhang, Dingzhou Wang, Yushang Zhao,
- Abstract要約: 本稿では,プロンプトエンジニアリング,多目的微調整,後処理を統合し,エンゲージメントとコンバージョン駆動の両方のマーケティングコピーを生成するフレームワークを提案する。
コンテントノベルティを維持しつつ,CTRの12.5%増加とCVRの8.3%増加を実現している。
- 参考スコア(独自算出の注目度): 1.5553847214012175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As e-commerce competition intensifies, balancing creative content with conversion effectiveness becomes critical. Leveraging LLMs' language generation capabilities, we propose a framework that integrates prompt engineering, multi-objective fine-tuning, and post-processing to generate marketing copy that is both engaging and conversion-driven. Our fine-tuning method combines sentiment adjustment, diversity enhancement, and CTA embedding. Through offline evaluations and online A/B tests across categories, our approach achieves a 12.5 % increase in CTR and an 8.3 % increase in CVR while maintaining content novelty. This provides a practical solution for automated copy generation and suggests paths for future multimodal, real-time personalization.
- Abstract(参考訳): eコマースの競争が激化するにつれ、クリエイティブコンテンツと変換効率のバランスが重要になる。
LLMの言語生成能力を生かし、迅速なエンジニアリング、多目的微調整、後処理を統合し、エンゲージメントとコンバージョン駆動の両方のマーケティングコピーを生成するフレームワークを提案する。
我々の微調整方法は、感情調整、多様性向上、CTA埋め込みを組み合わせたものである。
オフライン評価とオンラインA/Bテストにより,CTRが12.5%,CVRが8.3%,コンテンツノベルティが8.3%向上した。
これは、自動コピー生成のための実用的なソリューションを提供し、将来のマルチモーダル、リアルタイムパーソナライズのためのパスを提案する。
関連論文リスト
- SOLVE: Synergy of Language-Vision and End-to-End Networks for Autonomous Driving [51.47621083057114]
SOLVEは、ビジョンランゲージモデルとエンド・ツー・エンド(E2E)モデルを相乗化して自動運転車の計画を強化する革新的なフレームワークである。
提案手法は,VLMとE2Eコンポーネント間の包括的インタラクションを実現するために,共有ビジュアルエンコーダによる機能レベルでの知識共有を重視している。
論文 参考訳(メタデータ) (2025-05-22T15:44:30Z) - SWEET-RL: Training Multi-Turn LLM Agents on Collaborative Reasoning Tasks [110.20297293596005]
大規模言語モデル(LLM)エージェントは、実世界のタスクでマルチターンインタラクションを実行する必要がある。
LLMエージェントを最適化するための既存のマルチターンRLアルゴリズムは、LLMの一般化能力を活用しながら、複数回にわたって効果的なクレジット割り当てを行うことができない。
本稿では,新たなRLアルゴリズムであるSWEET-RLを提案する。
我々の実験は、SWEET-RLがコルベンチにおける成功率と勝利率を、他の最先端マルチターンRLアルゴリズムと比較して6%向上することを示した。
論文 参考訳(メタデータ) (2025-03-19T17:55:08Z) - MOHPER: Multi-objective Hyperparameter Optimization Framework for E-commerce Retrieval System [1.5960546024967321]
MOHPERはeコマースサイトの多目的最適化フレームワークである。
クリックスルーレート(CTR)、クリックスルー変換レート(CTCVR)、関連する目的を共同で最適化する。
これは、ユーザの満足度と収益目標の両方に合わせたバランスの取れた最適化を達成する上で、その実用的効果を裏付けるものだ。
論文 参考訳(メタデータ) (2025-03-07T08:25:08Z) - CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - Session-Level Dynamic Ad Load Optimization using Offline Robust Reinforcement Learning [14.410333601657172]
セッションレベルの動的広告ロード最適化は、ユーザのオンラインセッション中に配信される広告の密度とタイプをリアルタイムでパーソナライズすることを目的としている。
従来の因果学習に基づくアプローチは、重要な技術的課題に苦しむ。
本研究では,動的システムにおける共起バイアスを効果的に軽減するオフライン深層Q-network(DQN)ベースのフレームワークを開発する。
論文 参考訳(メタデータ) (2025-01-09T21:53:03Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - GCOF: Self-iterative Text Generation for Copywriting Using Large
Language Model [6.439245424286433]
ChatGPTのような大規模言語モデルは、マーケティングコピーの生成を大幅に単純化した。
我々は、マーケティングコピー作成の効率性とエンゲージメントを高めるために設計された遺伝的コピー最適化フレームワーク(GCOF)を紹介する。
オンラインの結果,我々のフレームワークで作成したコピーは,クリックスルーレート(CTR)の平均値が50%以上上昇することがわかった。
論文 参考訳(メタデータ) (2024-02-21T09:59:20Z) - CREMA: Generalizable and Efficient Video-Language Reasoning via Multimodal Modular Fusion [58.15403987979496]
CREMAは、ビデオ推論のための一般化可能、高効率、モジュラリティ融合フレームワークである。
本稿では,軽量核融合モジュールとモーダリティ・シークエンシャル・トレーニング・ストラテジーによって支援された,新しいプログレッシブ・マルチモーダル・フュージョン設計を提案する。
ビデオQA や Video-Audio/3D/Touch/Thermal QA を含む7つのビデオ言語推論タスクについて検証を行った。
論文 参考訳(メタデータ) (2024-02-08T18:27:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。