論文の概要: DynamiX: Dynamic Resource eXploration for Personalized Ad-Recommendations
- arxiv url: http://arxiv.org/abs/2511.18331v1
- Date: Sun, 23 Nov 2025 08:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.78196
- Title: DynamiX: Dynamic Resource eXploration for Personalized Ad-Recommendations
- Title(参考訳): DynamiX: 個人化されたアドレコメンデーションのための動的リソースeXploration
- Authors: Sohini Roychowdhury, Adam Holeman, Mohammad Amin, Feng Wei, Bhaskar Mehta, Srihari Reddy,
- Abstract要約: オンラインアドレコメンデーションシステムのためのスケーラブルでパーソナライズされたシーケンス探索フレームワークであるDynamixを紹介した。
Dynamixは、居住時間と広告変換イベントの相関を利用して、セッションと表面レベルのユーザエンゲージメントを分類する。
我々は,Dynamixがオンラインユーザシーケンスに基づく推薦モデルにおいて,大幅なコスト効率と性能向上を実現していることを示す。
- 参考スコア(独自算出の注目度): 5.168870928194366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For online ad-recommendation systems, processing complete user-ad-engagement histories is both computationally intensive and noise-prone. We introduce Dynamix, a scalable, personalized sequence exploration framework that optimizes event history processing using maximum relevance principles and self-supervised learning through Event Based Features (EBFs). Dynamix categorizes users-engagements at session and surface-levels by leveraging correlations between dwell-times and ad-conversion events. This enables targeted, event-level feature removal and selective feature boosting for certain user-segments, thereby yielding training and inference efficiency wins without sacrificing engaging ad-prediction accuracy. While, dynamic resource removal increases training and inference throughput by 1.15% and 1.8%, respectively, dynamic feature boosting provides 0.033 NE gains while boosting inference QPS by 4.2% over baseline models. These results demonstrate that Dynamix achieves significant cost efficiency and performance improvements in online user-sequence based recommendation models. Self-supervised user-segmentation and resource exploration can further boost complex feature selection strategies while optimizing for workflow and compute resources.
- Abstract(参考訳): オンラインアドレコメンデーションシステムでは、完全なユーザアドエンゲージメントヒストリーを処理することは、計算集約性とノイズ発生の両方である。
我々はDynamixを紹介した。Dynamixはスケーラブルでパーソナライズされたシーケンス探索フレームワークで、最大関連原理を用いたイベント履歴処理とイベントベース機能(EBF)による自己教師付き学習を最適化する。
Dynamixは、居住時間と広告変換イベントの相関を利用して、セッションと表面レベルのユーザエンゲージメントを分類する。
これにより、特定のユーザセグメントに対して、ターゲットとなるイベントレベルの特徴除去と選択的な特徴増強が可能になり、積極的な予測精度を犠牲にすることなく、トレーニングと推論効率が勝利する。
動的リソース除去はトレーニングと推論のスループットをそれぞれ1.15%、推論のスループットを1.8%向上させるが、動的な特徴増強は0.033NEゲインを提供し、推論QPSを4.2%向上させる。
これらの結果から,Dynamix はオンラインユーザシーケンスベースレコメンデーションモデルにおいて,大幅なコスト効率と性能向上を実現していることが示された。
自己管理されたユーザセグメンテーションとリソース探索は、ワークフローと計算リソースを最適化しながら、複雑な機能選択戦略をさらに強化する。
関連論文リスト
- Bridging VLMs and Embodied Intelligence with Deliberate Practice Policy Optimization [72.20212909644017]
Deliberate Practice Policy Optimization (DPPO) はメタ認知型メタループのトレーニングフレームワークである。
DPPOは教師付き微調整(能力拡張)と強化学習(技能向上)の交互に行う
実証的には、DPPO(Pelican-VL 1.0)で視覚言語を具現化したモデルをトレーニングすると、ベースモデルよりも20.3%パフォーマンスが向上する。
私たちはモデルとコードをオープンソースにして、データとリソースのボトルネックを軽減する最初の体系的なフレームワークを提供しています。
論文 参考訳(メタデータ) (2025-11-20T17:58:04Z) - Deep Reinforcement Learning for Ranking Utility Tuning in the Ad Recommender System at Pinterest [10.816672840498079]
広告推薦システムにおけるランキングユーティリティ機能は、プラットフォーム、広告主、ユーザー間で価値のバランスをとる上で中心的な役割を果たす。
従来の手動チューニングは単純さと解釈性を提供しながら、しばしば準最適結果をもたらす。
個人化されたユーティリティチューニングのための一般的なDeep Reinforcement Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-05T17:57:45Z) - Similarity-Based Supervised User Session Segmentation Method for Behavior Logs [0.6524460254566904]
動作埋め込みと属性から導出した類似性特徴に基づく教師付きセッションセグメンテーション手法を提案する。
実際の閲覧履歴から手動で注釈付きデータセットを構築し,F1スコア,PR-AUC,ROC-AUCを用いてセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2025-08-22T05:47:42Z) - Enhancing Serendipity Recommendation System by Constructing Dynamic User Knowledge Graphs with Large Language Models [0.9262403397108375]
大規模言語モデル(LLM)は、豊富な世界知識と優れた推論能力のおかげで、推奨されるセレンディピティーを示す。
本稿では,LLmを利用してユーザ知識グラフを動的に構築し,レコメンデーションシステムのセレンディピティーを高める手法を提案する。
論文 参考訳(メタデータ) (2025-08-06T02:52:09Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - DARS: Dynamic Action Re-Sampling to Enhance Coding Agent Performance by Adaptive Tree Traversal [55.13854171147104]
大規模言語モデル(LLM)は、自然言語処理、データ分析、ソフトウェア開発など、さまざまな領域に革命をもたらした。
符号化エージェントのための新しい推論時間計算スケーリングアプローチである動的アクション再サンプリング(DARS)を提案する。
我々は、SWE-Bench Liteベンチマークに対する我々のアプローチを評価し、このスケーリング戦略がClude 3.5 Sonnet V2で55%のパス@kスコアを達成したことを実証した。
論文 参考訳(メタデータ) (2025-03-18T14:02:59Z) - PRISM: Self-Pruning Intrinsic Selection Method for Training-Free Multimodal Data Selection [68.8373788348678]
ビジュアルインストラクションチューニングは、事前訓練されたマルチモーダル大言語モデルに人間の指示に従うように適応する。
PRISMは、効率的な視覚的命令選択のための最初のトレーニング不要のフレームワークである。
データ選択とモデルチューニングのエンドツーエンドの時間を従来のパイプラインの30%に短縮する。
論文 参考訳(メタデータ) (2025-02-17T18:43:41Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Automatic tuning of hyper-parameters of reinforcement learning
algorithms using Bayesian optimization with behavioral cloning [0.0]
強化学習(RL)では、学習エージェントが収集したデータの情報内容は多くのハイパーパラメータの設定に依存する。
本研究では,ベイズ最適化を用いた自律的ハイパーパラメータ設定手法を提案する。
実験は、他の手作業による調整や最適化ベースのアプローチと比較して、有望な結果を示している。
論文 参考訳(メタデータ) (2021-12-15T13:10:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。