論文の概要: Smart Fast Finish: Preventing Overdelivery via Daily Budget Pacing at DoorDash
- arxiv url: http://arxiv.org/abs/2509.07929v1
- Date: Tue, 09 Sep 2025 17:14:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.413449
- Title: Smart Fast Finish: Preventing Overdelivery via Daily Budget Pacing at DoorDash
- Title(参考訳): Smart Fast Finish: DoorDashの日々の予算削減によるオーバーデリバリの防止
- Authors: Rohan Garg, Yongjin Xiao, Jason, Yang, Mandar Rahurkar,
- Abstract要約: スマートファストフィニッシュ(SFF)と呼ばれる予算削減機能を提案する。
SFFは、予算削減システムにおける業界標準のFast Finish(FF)機能をベースにしている。
SFFは現在、米国最大のデリバリープラットフォームであるDoorDashで使用されている。
- 参考スコア(独自算出の注目度): 11.684502883003589
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a budget pacing feature called Smart Fast Finish (SFF). SFF builds upon the industry standard Fast Finish (FF) feature in budget pacing systems that depletes remaining advertising budget as quickly as possible towards the end of some fixed time period. SFF dynamically updates system parameters such as start time and throttle rate depending on historical ad-campaign data. SFF is currently in use at DoorDash, one of the largest delivery platforms in the US, and is part of its budget pacing system. We show via online budget-split experimentation data and offline simulations that SFF is a robust solution for overdelivery mitigation when pacing budget.
- Abstract(参考訳): スマートファストフィニッシュ(SFF)と呼ばれる予算削減機能を提案する。
SFFは業界標準のFast Finish(FF)機能をベースにしている。
SFFは、過去のアドキャンプデータに応じて、起動時間やスロットルレートなどのシステムパラメータを動的に更新する。
SFFは現在、米国最大の配送プラットフォームであるDoorDashで使用されており、予算削減システムの一部となっている。
我々は、オンライン予算分割実験データとオフラインシミュレーションを通して、SFFは予算を練る際の過度な軽減のための堅牢なソリューションであることを示す。
関連論文リスト
- Dynamic Speculative Agent Planning [57.63021893399452]
大規模な言語モデルベースのエージェントは、遅延の禁止と推論コストのために、重要なデプロイメント課題に直面している。
本稿では,オンライン強化学習フレームワークである動的投機計画(Dynamic Speculative Planning, DSP)を紹介する。
2つの標準エージェントベンチマークの実験では、DSPは高速加速法に匹敵する効率を達成し、総コストを30%削減し、不要コストを60%まで削減している。
論文 参考訳(メタデータ) (2025-09-02T03:34:36Z) - HyperFlexis: Joint Design of Algorithms and Systems for Multi-SLO Serving and Fast Scaling [19.154782641360253]
現代の大規模言語モデル(LLM)が提供するシステムは、さまざまな長さ、優先順位、ステージ固有のサービスレベル目標(SLO)を持つ、高度に可変的な要求からの課題に直面している。
我々は,複数のSLO下でのスケジューリングとスケーリングを協調的に最適化するために,アルゴリズムとシステムレベルの革新を統合した統一LLMサービスシステムである textbfHyperFlexis を提案する。
論文 参考訳(メタデータ) (2025-08-21T18:40:20Z) - FastSwitch: Optimizing Context Switching Efficiency in Fairness-aware Large Language Model Serving [2.5833506260502306]
既存のシステムはスループットを過度に優先順位付けし、プリエンプションによって引き起こされるコンテキストスイッチによって引き起こされるオーバーヘッドを見渡す傾向がある。
FastSwitchは、既存のKVキャッシュメモリ割り当てポリシーに適合するだけでなく、コンテキストスイッチングオーバーヘッドを軽減するフェアネス対応のサービスシステムである。
我々の評価によると、FastSwitchは最先端のLLMサービスシステムであるvLLMよりも、尾部TTFTとTBTで1.4-11.2xの高速化を実現している。
論文 参考訳(メタデータ) (2024-11-27T15:07:28Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - Faster Reinforcement Learning by Freezing Slow States [3.9208771438083123]
無限水平マルコフ決定過程(MDP)を「高速」構造で研究する。
我々は,低レベル計画の段階において,遅い状態を「凍結」する新しい近似手法を提案する。
提案手法は,計算量を大幅に削減し,高品質なポリシーを作成できることを示す。
論文 参考訳(メタデータ) (2023-01-03T01:35:24Z) - Phoebe: Reuse-Aware Online Caching with Reinforcement Learning for
Emerging Storage Models [8.932281655601495]
Phoebeは、最適なオンラインキャッシュのための再利用対応強化学習フレームワークである。
実験の結果,PhoebeはLRUと最先端のオンライン学習ベースのキャッシュポリシとのキャッシュミス率のギャップを埋めることができた。
論文 参考訳(メタデータ) (2020-11-13T22:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。