論文の概要: PushGen: Push Notifications Generation with LLM
- arxiv url: http://arxiv.org/abs/2512.14490v1
- Date: Tue, 16 Dec 2025 15:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.762479
- Title: PushGen: Push Notifications Generation with LLM
- Title(参考訳): PushGen: LLMでプッシュ通知を生成する
- Authors: Shifu Bie, Jiangxia Cao, Zixiao Luo, Yichuan Zou, Lei Liang, Lu Zhang, Linxun Chen, Zhaojie Liu, Xuanping Li, Guorui Zhou, Kaiqiao Zhan, Kun Gai,
- Abstract要約: PushGenは、人為的なコンテンツに匹敵する高品質なプッシュ通知を生成する自動化フレームワークである。
大規模な産業アプリケーションにデプロイされ、毎日数億人のユーザにサービスを提供している。
- 参考スコア(独自算出の注目度): 20.75604362739165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PushGen, an automated framework for generating high-quality push notifications comparable to human-crafted content. With the rise of generative models, there is growing interest in leveraging LLMs for push content generation. Although LLMs make content generation straightforward and cost-effective, maintaining stylistic control and reliable quality assessment remains challenging, as both directly impact user engagement. To address these issues, PushGen combines two key components: (1) a controllable category prompt technique to guide LLM outputs toward desired styles, and (2) a reward model that ranks and selects generated candidates. Extensive offline and online experiments demonstrate its effectiveness, which has been deployed in large-scale industrial applications, serving hundreds of millions of users daily.
- Abstract(参考訳): 我々はPushGenを紹介した。PushGenは人造コンテンツに匹敵する高品質なプッシュ通知を生成する自動フレームワークだ。
生成モデルの普及に伴い、プッシュコンテンツ生成にLLMを活用することへの関心が高まっている。
LLMはコンテンツ生成を簡単かつ費用対効果にするが、ユーザエンゲージメントに直接影響を与えるため、スタイリスティックな制御と信頼性の高い品質評価は依然として困難である。
これらの問題に対処するため、PushGenは、(1) LLM出力を所望のスタイルに導く制御可能なカテゴリプロンプト技術、(2)生成した候補をランク付けして選択する報酬モデル、の2つの主要なコンポーネントを組み合わせる。
大規模なオフラインおよびオンライン実験は、大規模な産業アプリケーションにデプロイされ、毎日数億人のユーザにサービスを提供している、その効果を実証している。
関連論文リスト
- UME-R1: Exploring Reasoning-Driven Generative Multimodal Embeddings [70.60608084375691]
我々は、生成的埋め込みの探索の先駆者であり、生成的パラダイム内の埋め込みタスクを統合する。
UME-R1は,2段階のトレーニング戦略からなる汎用なマルチモーダル埋め込みフレームワークである。
ビデオ、画像、ビジュアルドキュメントにまたがる78タスクにわたるMMEB-V2ベンチマークで評価した。
論文 参考訳(メタデータ) (2025-11-01T05:04:23Z) - VeriMoA: A Mixture-of-Agents Framework for Spec-to-HDL Generation [22.276878955961504]
大きな言語モデル(LLM)はハードウェア記述言語(HDL)の生成を約束するが、パラメトリック知識の制限とドメイン固有の制約のために困難に直面している。
We propose VeriMoA, a training-free mixed-of-agents framework with two synergistic innovations。
論文 参考訳(メタデータ) (2025-10-31T16:40:58Z) - Saber: An Efficient Sampling with Adaptive Acceleration and Backtracking Enhanced Remasking for Diffusion Language Model [98.35868970993232]
拡散言語モデル(DLM)は、支配的な自己回帰パラダイムに代わる強力で有望な選択肢として現れています。
コード生成における推論速度と出力品質の向上を実現するために,適応加速度を用いた効率的なサンプリングとバックトラック強化リマッシング(セイバー)を導入する。
論文 参考訳(メタデータ) (2025-10-20T23:38:12Z) - HLLM-Creator: Hierarchical LLM-based Personalized Creative Generation [24.94016591437963]
現在のAIGCシステムはクリエイターのインスピレーションに大きく依存しており、真にユーザ個人化されたコンテンツを生成することは滅多にない。
ユーザ関心モデリングとパーソナライズされたコンテンツ生成のための階層型LLMフレームワークであるHLLM-Creatorを提案する。
Douyin Search Adsのパーソナライズされたタイトル生成実験は,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2025-08-25T15:23:21Z) - OneGen: Efficient One-Pass Unified Generation and Retrieval for LLMs [44.054569398300266]
ワンパス生成・検索フレームワーク(OneGen)
OneGenは、自動回帰的に生成された検索トークンを組み込むことで、生成と検索のための従来の別々のトレーニングアプローチを橋渡しする。
その結果,LLMの生成能力を維持しつつ,検索性能の向上を図っている。
論文 参考訳(メタデータ) (2024-09-08T16:35:19Z) - Prompt Highlighter: Interactive Control for Multi-Modal LLMs [50.830448437285355]
本研究では,マルチモーダル LLM (LLMs&VLMs) 推論における重要な側面として,明示的な制御可能なテキスト生成を目標とする。
本稿では,新しい推論手法であるPrompt Highlighterを導入し,ユーザが特定のプロンプトスパンをハイライトし,生成中のフォーカスをインタラクティブに制御できるようにする。
推論中、注意重みを通して強調されたトークンでモデルを導くことで、より望ましい出力が得られます。
論文 参考訳(メタデータ) (2023-12-07T13:53:29Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。