論文の概要: SLM4Offer: Personalized Marketing Offer Generation Using Contrastive Learning Based Fine-Tuning
- arxiv url: http://arxiv.org/abs/2508.15471v1
- Date: Thu, 21 Aug 2025 11:47:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.300553
- Title: SLM4Offer: Personalized Marketing Offer Generation Using Contrastive Learning Based Fine-Tuning
- Title(参考訳): SLM4Offer: コントラスト学習に基づくファインチューニングを用いたパーソナライズされたマーケティングサービス
- Authors: Vedasamhitha Challapalli, Konduru Venkat Sai, Piyush Pratap Singh, Rupesh Prasad, Arvind Maurya, Atul Singh,
- Abstract要約: 優れたパーソナライゼーション戦略は、収益を最大40%増やすことができる。
この研究は、パーソナライズされたオファー生成のための生成AIモデルであるSLM4Offerを紹介する。
実験の結果,教師付き微調整ベースラインよりも17%改善した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized marketing has emerged as a pivotal strategy for enhancing customer engagement and driving business growth. Academic and industry efforts have predominantly focused on recommendation systems and personalized advertisements. Nonetheless, this facet of personalization holds significant potential for increasing conversion rates and improving customer satisfaction. Prior studies suggest that well-executed personalization strategies can boost revenue by up to 40 percent, underscoring the strategic importance of developing intelligent, data-driven approaches for offer generation. This work introduces SLM4Offer, a generative AI model for personalized offer generation, developed by fine-tuning a pre-trained encoder-decoder language model, specifically Google's Text-to-Text Transfer Transformer (T5-Small 60M) using a contrastive learning approach. SLM4Offer employs InfoNCE (Information Noise-Contrastive Estimation) loss to align customer personas with relevant offers in a shared embedding space. A key innovation in SLM4Offer lies in the adaptive learning behaviour introduced by contrastive loss, which reshapes the latent space during training and enhances the model's generalizability. The model is fine-tuned and evaluated on a synthetic dataset designed to simulate customer behaviour and offer acceptance patterns. Experimental results demonstrate a 17 percent improvement in offer acceptance rate over a supervised fine-tuning baseline, highlighting the effectiveness of contrastive objectives in advancing personalized marketing.
- Abstract(参考訳): パーソナライズされたマーケティングは、顧客のエンゲージメントを高め、ビジネスの成長を促進するための重要な戦略として現れてきた。
学術と産業の努力は主にレコメンデーションシステムとパーソナライズされた広告に焦点を当ててきた。
それでも、このパーソナライゼーションの側面は、コンバージョン率を高め、顧客満足度を向上させる大きな可能性を秘めている。
以前の研究では、実績のあるパーソナライゼーション戦略が収益を最大40%増やすことが示唆されており、オファージェネレーションのためのインテリジェントでデータ駆動のアプローチを開発することの戦略的重要性を強調している。
この研究は、パーソナライズされたオファー生成のための生成AIモデルであるSLM4Offerを紹介し、対照的な学習アプローチを使用して、事前訓練されたエンコーダ-デコーダ言語モデル、特にGoogleのText-to-Text Transfer Transformer(T5-Small 60M)を微調整することによって開発された。
SLM4OfferはInfoNCE(Information Noise-Contrastive Estimation)損失を利用して、顧客ペルソナと関連するオファーを共有埋め込みスペースで整合させる。
SLM4Offerの重要な革新は、対照的な損失によって導入された適応的な学習行動にある。
このモデルは、顧客の振る舞いをシミュレートし、受け入れパターンを提供するために設計された合成データセットに基づいて微調整され、評価される。
実験の結果、教師付き微調整ベースラインよりも17%改善し、パーソナライズされたマーケティングの推進における対照的な目標の有効性を強調した。
関連論文リスト
- Client Clustering Meets Knowledge Sharing: Enhancing Privacy and Robustness in Personalized Peer-to-Peer Learning [5.881825061973424]
我々はP4(Personalized, Private, Peer-to-Peer)を開発し、リソースに制約のあるIoTデバイス向けにパーソナライズされたモデルを提供する。
私たちのソリューションでは、クライアントの類似性をプライベートに検出し、協調グループを形成するために、軽量で完全に分散化されたアルゴリズムを採用しています。
P4は、異なるプライベートなピアツーピアアプローチをリードするよりも5%から30%高い精度を実現し、最大30%の悪意のあるクライアントで堅牢性を維持する。
論文 参考訳(メタデータ) (2025-06-25T13:27:36Z) - Privacy Preserving Conversion Modeling in Data Clean Room [9.75348287904258]
本稿では,ユーザのプライバシの嗜好や広告主の要求に固執しつつ,CVR予測の課題に対処する。
従来の手法では、広告主がセンシティブな変換データを共有できないなどの障害に直面している。
広告プラットフォームとサンプルレベルの勾配を共有することなく協調的なモデルトレーニングを可能にする新しいモデルトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T22:38:50Z) - SalesRLAgent: A Reinforcement Learning Approach for Real-Time Sales Conversion Prediction and Optimization [0.0]
SalesRlagentは、特別な強化学習を活用して営業会話全体の変換確率を予測する新しいフレームワークである。
システムには、Azure OpenAI組み込み(3072次元)、ターンバイターン状態追跡、メタ学習機能が含まれて、自身の知識境界を理解する。
論文 参考訳(メタデータ) (2025-03-30T03:56:26Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [57.161917758405465]
大規模言語モデル(LLM)におけるパーソナライゼーションは、個々のユーザまたはユーザグループの好みに合わせてモデルをカスタマイズすることを目指している。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、ユーザのプライバシを保護しながら、タスク固有のメトリクスを直接最適化するために、勾配のないメソッドを使用している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Differential Privacy Personalized Federated Learning Based on Dynamically Sparsified Client Updates [12.373620724244475]
本稿では,動的に分散化されたクライアント更新を利用する個人個人化学習手法を提案する。
EMNIST, CIFAR-10, CIFAR-100の実験結果から, 提案手法が優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-03-12T09:34:05Z) - Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
我々は、フェデレーション学習(FL)によるプライバシーを確保しつつ、サービスのデータ提供を容易にする没入型モデルトレーディングフレームワークを提案する。
我々は,資源制約下での高価値モデルに貢献するために,メタバースユーザ(MU)にインセンティブを与えるインセンティブ機構を設計する。
我々は、MUやその他のMSPに関するプライベート情報にアクセスすることなく、深層強化学習に基づく完全に分散された動的報酬アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。