論文の概要: Comparison Lift: Bandit-based Experimentation System for Online
Advertising
- arxiv url: http://arxiv.org/abs/2009.07899v1
- Date: Wed, 16 Sep 2020 19:08:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:19:17.411587
- Title: Comparison Lift: Bandit-based Experimentation System for Online
Advertising
- Title(参考訳): Comparison Lift: オンライン広告のためのバンドベース実験システム
- Authors: Tong Geng, Xiliang Lin, Harikesh S. Nair, Jun Hao, Bin Xiang, Shurui
Fan
- Abstract要約: Comparison Liftは、JD.comのオンライン広告オーディエンスとクリエイティビティをテストするための実験用アズ・ア・サービス(E)アプリケーションである。
固定サンプルA/Bテストに重点を置く他の多くのEツールとは異なり、Spectration Liftは独自のバンディットベースの実験アルゴリズムをデプロイする。
製品における適応設計は, 固定サンプルA/B設計と比較して, 平均クリック数が27%増加したと推定した。
- 参考スコア(独自算出の注目度): 10.499720681099452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Comparison Lift is an experimentation-as-a-service (EaaS) application for
testing online advertising audiences and creatives at JD.com. Unlike many other
EaaS tools that focus primarily on fixed sample A/B testing, Comparison Lift
deploys a custom bandit-based experimentation algorithm. The advantages of the
bandit-based approach are two-fold. First, it aligns the randomization induced
in the test with the advertiser's goals from testing. Second, by adapting
experimental design to information acquired during the test, it reduces
substantially the cost of experimentation to the advertiser. Since launch in
May 2019, Comparison Lift has been utilized in over 1,500 experiments. We
estimate that utilization of the product has helped increase click-through
rates of participating advertising campaigns by 46% on average. We estimate
that the adaptive design in the product has generated 27% more clicks on
average during testing compared to a fixed sample A/B design. Both suggest
significant value generation and cost savings to advertisers from the product.
- Abstract(参考訳): Comparison Liftは、JD.comのオンライン広告オーディエンスとクリエイティブをテストするための実験用アズ・ア・サービス(EaaS)アプリケーションである。
主に固定サンプルa/bテストにフォーカスした他のeaasツールとは異なり、compute liftは独自のbanditベースの実験アルゴリズムをデプロイする。
banditベースのアプローチの利点は2つあります。
まず、テストで引き起こされるランダム化と、テストによる広告主の目標を一致させる。
第2に、試験中に取得した情報に実験設計を適用することにより、広告主に対する実験のコストを大幅に削減する。
2019年5月の打ち上げ以来、比較リフトは1500以上の実験で使用されている。
このプロダクトの利用は、広告キャンペーンのクリックスルー率を平均46%向上させるのに役立ったと推定している。
製品における適応設計は, 固定サンプルA/B設計と比較して, 平均クリック数が27%増加したと推定した。
どちらも、製品から広告主に重要な価値生成とコスト削減を示唆している。
関連論文リスト
- Using Auxiliary Data to Boost Precision in the Analysis of A/B Tests on
an Online Educational Platform: New Data and New Results [1.5293427903448025]
A/Bテストでは、小さなサンプルであってもバイアスや正確な統計的推測を伴わずに因果効果を推定できる。
近年の方法論的な進歩は、設計に基づく因果推定と、実験に参加していない歴史的ユーザからのリッチログデータの機械学習モデルとの結合により、パワーと統計的精度が大幅に向上することを示してきた。
また,A/B試験試料の残余が非表現である場合においても,サブグループ効果を推定するためのゲインがさらに大きくなり,成層後個体群影響推定値にまで拡張できることが示唆された。
論文 参考訳(メタデータ) (2023-06-09T21:54:36Z) - Rec4Ad: A Free Lunch to Mitigate Sample Selection Bias for Ads CTR
Prediction in Taobao [24.43583745735832]
広告CTRモデルのサンプル選択バイアスを軽減するために,フリーランチとしてレコメンデーションサンプルを活用することを提案する(Rec4Ad)。
Rec4Adは、最大5.6%のCTRと+2.9%のRPMを持ち、主要なビジネス指標でかなりの利益を得ている。
論文 参考訳(メタデータ) (2023-06-06T09:22:52Z) - Conversion-Based Dynamic-Creative-Optimization in Native Advertising [2.8461446020965435]
動的クリエイティブ最適化(DCO)は、最近2年前にローンチされ、広告主から注目を集めているGeminiネイティブ製品だ。
この要求を満たすために,DCO広告の組み合わせが予測変換率(CVR)に応じて好まれる,オークション後のソリューションを提案する。
オンラインバケットA/Bテストによるこの探索・探索ソリューションのオンライン評価では、すべての組み合わせをランダムに使用するコントロールバケットと比較して53.5%のCVRリフトが見られた。
論文 参考訳(メタデータ) (2022-11-13T13:13:00Z) - Privacy Aware Experiments without Cookies [13.488622527004082]
2つのブランドは、A/Bテストで顧客のための代替Webエクスペリエンスを共同でテストしたい。
このような共同テストは、現在、サードパーティ製クッキーを使用して実施されており、各ブランドは、他のウェブサイトへの訪問者の身元に関する情報を持っている。
サードパーティのクッキーの即時除去により、このようなA/Bテストは不可能になる。
そこで我々は,2つのブランドが実験の高レベルな集約パラメータに同意するだけで,代替体験をテストするための2段階の実験設計を提案する。
論文 参考訳(メタデータ) (2022-11-03T23:44:01Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Adaptive Experimentation with Delayed Binary Feedback [11.778924435036519]
本稿では,2値フィードバックの遅延目的に適した適応型実験法を提案する。
実際の目的を推定し、見積もりに基づいて変種を動的に割り当てる。
このソリューションは現在、JD.comのオンライン実験プラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2022-02-02T01:47:10Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Using Sampling to Estimate and Improve Performance of Automated Scoring
Systems with Guarantees [63.62448343531963]
本稿では,既存のパラダイムを組み合わせることで,人間が知能的に収集する応答をサンプリングする手法を提案する。
比較的少ない予算で精度(平均19.80%)と二次重み付きカッパ(平均25.60%)の顕著な増加を観察した。
論文 参考訳(メタデータ) (2021-11-17T05:00:51Z) - Do Interruptions Pay Off? Effects of Interruptive Ads on Consumers
Willingness to Pay [79.9312329825761]
本研究は,広告主ブランドの商品に対する消費者の支払い意欲に及ぼす割り込み広告の影響を計測する研究結果である。
本研究は, 広告の経済的影響に関する研究に寄与し, 実験マーケティング研究における実際の(自己申告の)支払意欲を測定する方法を紹介した。
論文 参考訳(メタデータ) (2020-05-14T09:26:57Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z) - Dynamic Causal Effects Evaluation in A/B Testing with a Reinforcement
Learning Framework [68.96770035057716]
A/Bテスト(A/B Testing)は、新しい製品を製薬、技術、伝統産業の古い製品と比較するビジネス戦略である。
本稿では,オンライン実験においてA/Bテストを実施するための強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-05T10:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。