論文の概要: Generative Modeling with Multi-Instance Reward Learning for E-commerce Creative Optimization
- arxiv url: http://arxiv.org/abs/2508.09730v1
- Date: Wed, 13 Aug 2025 11:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.874038
- Title: Generative Modeling with Multi-Instance Reward Learning for E-commerce Creative Optimization
- Title(参考訳): 電子商取引創造最適化のためのマルチインスタンス・リワード学習を用いた生成モデリング
- Authors: Qiaolei Gu, Yu Li, DingYi Zeng, Lu Wang, Ming Pang, Changping Peng, Zhangang Lin, Ching Law, Jingping Shao,
- Abstract要約: eコマース広告では、創造的要素の最も説得力のある組み合わせを選択することが、ユーザの注意を引き、コンバージョンを推進するために重要である。
我々は、生成モデリングとマルチインスタンス報酬学習を統合したGenCOという新しいフレームワークを提案する。
われわれのアプローチは広告収入を大幅に増加させ、その実用的価値を示している。
- 参考スコア(独自算出の注目度): 15.51942931334223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In e-commerce advertising, selecting the most compelling combination of creative elements -- such as titles, images, and highlights -- is critical for capturing user attention and driving conversions. However, existing methods often evaluate creative components individually, failing to navigate the exponentially large search space of possible combinations. To address this challenge, we propose a novel framework named GenCO that integrates generative modeling with multi-instance reward learning. Our unified two-stage architecture first employs a generative model to efficiently produce a diverse set of creative combinations. This generative process is optimized with reinforcement learning, enabling the model to effectively explore and refine its selections. Next, to overcome the challenge of sparse user feedback, a multi-instance learning model attributes combination-level rewards, such as clicks, to the individual creative elements. This allows the reward model to provide a more accurate feedback signal, which in turn guides the generative model toward creating more effective combinations. Deployed on a leading e-commerce platform, our approach has significantly increased advertising revenue, demonstrating its practical value. Additionally, we are releasing a large-scale industrial dataset to facilitate further research in this important domain.
- Abstract(参考訳): eコマース広告では、タイトルや画像、ハイライトなど、創造的な要素の最も魅力的な組み合わせを選択することが、ユーザの注意を引き、コンバージョンを推進するために重要である。
しかし、既存の手法はしばしば創造的要素を個別に評価し、組み合わせ可能な指数的に大きな探索空間をナビゲートできなかった。
この課題に対処するために、生成モデリングとマルチインスタンス報酬学習を統合したGenCOという新しいフレームワークを提案する。
統合された2段階アーキテクチャは、まず、多種多様な創造的組み合わせを効率的に生成するために生成モデルを使用します。
この生成過程は強化学習に最適化されており、モデルがその選択を効果的に探索し、洗練することができる。
次に、スパースユーザーフィードバックの難しさを克服するために、マルチインスタンス学習モデルでは、クリックのような組み合わせレベルの報酬を、個々の創造的要素に属性付けする。
これにより、報酬モデルがより正確なフィードバック信号を提供することができ、それによって生成モデルをより効果的な組み合わせへと導くことができる。
主要なeコマースプラットフォーム上に展開された当社のアプローチは、広告収入を大幅に増加させ、その実用的価値を示しています。
さらに、我々はこの重要な領域におけるさらなる研究を促進するために、大規模産業データセットをリリースしています。
関連論文リスト
- CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - DiffMM: Multi-Modal Diffusion Model for Recommendation [19.43775593283657]
DiffMMと呼ばれる新しいマルチモーダルグラフ拡散モデルを提案する。
本フレームワークは,モダリティを意識したグラフ拡散モデルとクロスモーダルコントラスト学習パラダイムを統合し,モダリティを意識したユーザ表現学習を改善する。
論文 参考訳(メタデータ) (2024-06-17T17:35:54Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - A New Creative Generation Pipeline for Click-Through Rate with Stable
Diffusion Model [8.945197427679924]
従来のAIベースのアプローチは、デザイナーからの美的知識を限定しながら、ユーザー情報を考慮しないという同じ問題に直面している。
結果を最適化するために、従来の方法で生成されたクリエイティブは、クリエイティブランキングモデルと呼ばれる別のモジュールによってランク付けされる。
本稿では,クリエイティビティ生成段階においてCTRを改善することを目的とした,Click-Through Rate (CG4CTR) のための新しいCreative Generationパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-17T03:27:39Z) - AdBooster: Personalized Ad Creative Generation using Stable Diffusion
Outpainting [7.515971669919419]
デジタル広告において、最適項目(勧告)と最良の創造的プレゼンテーション(創造的最適化)の選択は伝統的に別分野とみなされてきた。
本稿では、ユーザの興味を取り入れたクリエイティブ生成のための生成モデルのタスクを紹介し、パーソナライズされた広告クリエイティビティのためのモデルであるAdBoosterを形作る。
論文 参考訳(メタデータ) (2023-09-08T12:57:05Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Cross-Element Combinatorial Selection for Multi-Element Creative in
Display Advertising [16.527943807941856]
本稿では,複数の創造的要素を対象としたクロスエレメント・コンビネーション・セレクション・フレームワークを提案する。
エンコーダプロセスでは、単一の創造的要素の表現を動的に調整するために、クロスエレメント相互作用を採用する。
実世界のデータセットの実験では、CECSがオフラインメトリクスのSOTAスコアを達成した。
論文 参考訳(メタデータ) (2023-07-04T09:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。