論文の概要: Advertising Media and Target Audience Optimization via High-dimensional
Bandits
- arxiv url: http://arxiv.org/abs/2209.08403v1
- Date: Sat, 17 Sep 2022 21:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:08:07.000070
- Title: Advertising Media and Target Audience Optimization via High-dimensional
Bandits
- Title(参考訳): 高次元バンディットによる広告メディアとターゲットオーディエンス最適化
- Authors: Wenjia Ba, J. Michael Harrison, Harikesh S. Nair
- Abstract要約: 我々は、広告主がオンラインパブリッシャーのデジタル広告管理を自動化するために利用できるデータ駆動アルゴリズムを提案する。
このアルゴリズムにより、広告主は利用可能なターゲットオーディエンスと広告メディアをまたいで検索し、オンライン実験を通じてキャンペーンの最良の組み合わせを見つけることができる。
- 参考スコア(独自算出の注目度): 2.5137859989323537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a data-driven algorithm that advertisers can use to automate their
digital ad-campaigns at online publishers. The algorithm enables the advertiser
to search across available target audiences and ad-media to find the best
possible combination for its campaign via online experimentation. The problem
of finding the best audience-ad combination is complicated by a number of
distinctive challenges, including (a) a need for active exploration to resolve
prior uncertainty and to speed the search for profitable combinations, (b) many
combinations to choose from, giving rise to high-dimensional search
formulations, and (c) very low success probabilities, typically just a fraction
of one percent. Our algorithm (designated LRDL, an acronym for Logistic
Regression with Debiased Lasso) addresses these challenges by combining four
elements: a multiarmed bandit framework for active exploration; a Lasso penalty
function to handle high dimensionality; an inbuilt debiasing kernel that
handles the regularization bias induced by the Lasso; and a semi-parametric
regression model for outcomes that promotes cross-learning across arms. The
algorithm is implemented as a Thompson Sampler, and to the best of our
knowledge, it is the first that can practically address all of the challenges
above. Simulations with real and synthetic data show the method is effective
and document its superior performance against several benchmarks from the
recent high-dimensional bandit literature.
- Abstract(参考訳): 我々は、広告主がオンラインパブリッシャーのデジタル広告管理を自動化するために利用できるデータ駆動アルゴリズムを提案する。
このアルゴリズムは、広告主が利用可能なターゲットオーディエンスと広告メディアを検索して、オンライン実験を通じてキャンペーンの最良の組み合わせを見つけることができる。
最高のオーディエンスとadの組み合わせを見つけるという問題は、いくつかの異なる課題によって複雑である。
(a)事前の不確実性を解消し、利益のある組み合わせの探索を早めるための積極的な探索の必要性。
(b)選択すべき組み合わせが多数あり、高次元探索定式化がもたらされ、
(c) 成功確率が非常に低く、通常は1%に過ぎません。
我々のアルゴリズム(LRDL、Debiased Lassoによるロジスティック回帰の頭字語)は、アクティブな探索のためのマルチアームバンディットフレームワーク、高次元の処理を行うLassoペナルティ関数、Lassoによって誘導される正規化バイアスを処理する組み込みのデバイアスカーネル、腕間のクロスラーニングを促進する結果のためのセミパラメトリック回帰モデル、の4つの要素を組み合わせることで、これらの課題に対処する。
このアルゴリズムはトンプソン・サンプラーとして実装されており、私たちの知る限りでは、上記のすべての課題を実際に解決できるのはこれが初めてです。
実データおよび合成データを用いたシミュレーションは,本手法が有効であることを示し,最近の高次元バンディット文献のいくつかのベンチマークに対して優れた性能を示す。
関連論文リスト
- Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,これらのRAGエージェントの検索結果を検索エンジンが生成し,オフラインで検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、このアプローチをオンライン環境に適応させ、リアルタイムな個別エージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - LOLA: LLM-Assisted Online Learning Algorithm for Content Experiments [2.2021543101231167]
現代のメディア企業は、ユーザーにとって最も魅力的で魅力的なコンテンツを特定するために、自動化され効率的な方法を必要としている。
本稿ではまず,3つの純LLM手法を用いて,最もキャッチラインを識別する能力について検討する。
LLM-Assisted Online Learning Algorithm (LOLA) は,Large Language Models (LLM) と適応実験を統合し,コンテンツ配信を最適化する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-03T07:56:58Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Incentivizing Combinatorial Bandit Exploration [87.08827496301839]
自己関心のあるユーザに対してレコメンデーションシステムでアクションを推奨するバンディットアルゴリズムを考える。
ユーザーは他のアクションを自由に選択でき、アルゴリズムの推奨に従うためにインセンティブを得る必要がある。
ユーザは悪用を好むが、アルゴリズムは、前のユーザから収集した情報を活用することで、探索にインセンティブを与えることができる。
論文 参考訳(メタデータ) (2022-06-01T13:46:25Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Approximate Nearest Neighbor Search under Neural Similarity Metric for
Large-Scale Recommendation [20.42993976179691]
本稿では,任意のマッチング関数にANN探索を拡張する新しい手法を提案する。
我々の主な考えは、すべての項目から構築された類似性グラフに一致する関数で、欲張りのウォークを実行することである。
提案手法は,Taobaoのディスプレイ広告プラットフォームに完全に展開されており,広告収入の大幅な増加をもたらす。
論文 参考訳(メタデータ) (2022-02-14T07:55:57Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Doubly-Adaptive Thompson Sampling for Multi-Armed and Contextual Bandits [28.504921333436833]
本稿では,トンプソンサンプリングに基づくアルゴリズムの変種について,両腕の真の平均報酬に対する2倍頑健な推定器の項を適応的に再検討する。
提案アルゴリズムは, 半合成実験における最適(最小)後悔率とその経験的評価に適合する。
このアプローチは、適応データ収集とは別に、より多くのバイアス源が存在するコンテキスト的包帯に拡張する。
論文 参考訳(メタデータ) (2021-02-25T22:29:25Z) - Optimizing Offer Sets in Sub-Linear Time [5.027714423258537]
本稿では,各項目数のサブ線形時間内で動作するパーソナライズされたオファーセット最適化アルゴリズムを提案する。
私たちのアルゴリズムは完全にデータ駆動で、ユーザーのサンプルに依存します。
論文 参考訳(メタデータ) (2020-11-17T13:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。