論文の概要: Sequential choice in ordered bundles
- arxiv url: http://arxiv.org/abs/2410.21670v1
- Date: Tue, 29 Oct 2024 02:35:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:43:20.075843
- Title: Sequential choice in ordered bundles
- Title(参考訳): 順序バンドルにおける逐次選択
- Authors: Rajeev Kohli, Kriste Krstovski, Hengyu Kuang, Hengxu Lin,
- Abstract要約: 我々は,先行する項目の消費パターンに基づいて,次の項目を順序付きバンドルで消費するという個人の判断を予測できるかどうかを検討する。
Spotifyのデータから、デコーダのみのアーキテクチャを持つカスタムトランスフォーマーが、最も正確な予測を提供します。
以上の結果から,トランスフォーマーは,注文されたバンドルから個人が消費するであろう次のアイテムのキュー作成を支援し,個々のアイテムの需要を予測し,需要を増大させるためにプロモーションをパーソナライズすることができることを示す。
- 参考スコア(独自算出の注目度): 1.9561775591923982
- License:
- Abstract: Experience goods such as sporting and artistic events, songs, videos, news stories, podcasts, and television series, are often packaged and consumed in bundles. Many such bundles are ordered in the sense that the individual items are consumed sequentially, one at a time. We examine if an individual's decision to consume the next item in an ordered bundle can be predicted based on his/her consumption pattern for the preceding items. We evaluate several predictive models, including two custom Transformers using decoder-only and encoder-decoder architectures, fine-tuned GPT-3, a custom LSTM model, a reinforcement learning model, two Markov models, and a zero-order model. Using data from Spotify, we find that the custom Transformer with a decoder-only architecture provides the most accurate predictions, both for individual choices and aggregate demand. This model captures a general form of state dependence. Analysis of Transformer attention weights suggests that the consumption of the next item in a bundle is based on approximately equal weighting of all preceding choices. Our results indicate that the Transformer can assist in queuing the next item that an individual is likely to consume from an ordered bundle, predicting the demand for individual items, and personalizing promotions to increase demand.
- Abstract(参考訳): スポーツや芸術イベント、歌、ビデオ、ニュース、ポッドキャスト、テレビシリーズなどの体験用品は、しばしばパッケージ化され、束で消費される。
このような束の多くは、個々のアイテムが1回ずつ順次消費されるという意味で注文される。
我々は,先行する項目の消費パターンに基づいて,次の項目を順序付きバンドルで消費するという個人の判断を予測できるかどうかを検討する。
我々は,デコーダのみとエンコーダ-デコーダアーキテクチャを用いた2つのカスタムトランスフォーマ,微調整GPT-3,カスタムLSTMモデル,強化学習モデル,マルコフモデル,ゼロオーダーモデルなど,いくつかの予測モデルを評価する。
Spotifyのデータから、デコーダのみのアーキテクチャを持つカスタムトランスフォーマーが、個々の選択と集約需要の両方に対して、最も正確な予測を提供します。
このモデルは、状態依存の一般的な形態を捉えている。
トランスフォーマーの注意重みの解析は、バンドル内の次の項目の消費が、すべての前の選択のほぼ等しい重み付けに基づいていることを示唆している。
以上の結果から,トランスフォーマーは,注文されたバンドルから個人が消費するであろう次のアイテムのキュー作成を支援し,個々のアイテムの需要を予測し,需要を増大させるためにプロモーションをパーソナライズすることができることを示す。
関連論文リスト
- A Probability--Quality Trade-off in Aligned Language Models and its Relation to Sampling Adaptors [50.046717886067555]
一致した言語モデルからコーパスをサンプリングする場合,文字列の平均報酬と平均ログ類似度との間にはトレードオフが存在することを示す。
我々は、この現象を形式的に処理し、サンプリングアダプタの選択が、どれだけの確率で報酬を交換できるかを選択できるかを実証する。
論文 参考訳(メタデータ) (2024-06-14T17:38:21Z) - Non-autoregressive Personalized Bundle Generation [39.83349922956341]
本稿では,非自己回帰機構によるバンドル生成と,BundleNATという新しいエンコーダデコーダフレームワークの設計を提案する。
本稿では,事前学習手法とグラフニューラルネットワークを用いて,ユーザの好みや項目ベースの互換性情報を完全に埋め込むことを提案する。
次に、所望のバンドルを直接ワンショットで出力できる置換同変復号アーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-06-11T03:44:17Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Transformer Choice Net: A Transformer Neural Network for Choice
Prediction [6.6543199581017625]
我々は,複数の選択を予測できるニューラルネットワークアーキテクチャであるTransformer Choice Netを開発した。
トランスフォーマーネットワークは、顧客の特徴やアイテムだけでなく、コンテキストも考慮し、このタスクに特に適していることがわかりました。
本アーキテクチャは,文献の先行するモデルと比較して,一様に優れた予測性能を示す。
論文 参考訳(メタデータ) (2023-10-12T20:54:10Z) - MatFormer: Nested Transformer for Elastic Inference [94.1789252941718]
MatFormerは、様々なデプロイメント制約で弾力性を提供するように設計されたネストトランスフォーマーアーキテクチャである。
2.6BデコーダのみのMatFormer言語モデル(MatLM)は1.5Bから2.6Bまでの小さなモデルを抽出できることを示す。
また,MatFormerベースのViT(MatViT)エンコーダから抽出した小さなエンコーダは,適応的な大規模検索のための距離空間構造を保持する。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Transformers meet Stochastic Block Models: Attention with Data-Adaptive
Sparsity and Cost [53.746169882193456]
最近の研究は、自己注意の二次的コストを克服するために、様々なスパークアテンションモジュールを提案している。
本稿では,それぞれの注意を混合メンバーシップブロックモデルで表現することで,両方の問題を解決するモデルを提案する。
我々のモデルは、以前の効率的な変種とオリジナルのトランスフォーマーより優れており、十分に注目されています。
論文 参考訳(メタデータ) (2022-10-27T15:30:52Z) - Click Prediction Boosting via Ensemble Learning Pipelines [0.0]
オンライン旅行代理店(OTA)はメタ検索入札エンジンでウェブサイトを宣伝している。
この作業には、クリック予測性能を改善するために、様々な回帰器が組み込まれている。
結論として、アンサンブルモデルは予測性能を約10%向上させる。
論文 参考訳(メタデータ) (2022-06-07T21:19:13Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z) - Classification Models for Partially Ordered Sequences [15.426481600285724]
部分順序付きシーケンスに対する新しい変換器ベースモデルを提案する。
既存の順序不変モデルの拡張に対してベンチマークを行う。
変換器をベースとした等時モデルでは,3つのデータセット上で既存のモデルの拡張よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-31T05:08:21Z) - Understanding Road Layout from Videos as a Whole [82.30800791500869]
我々はこれをトップビューの道路属性予測問題として定式化し、その目的は各フレームの属性を正確かつ一貫して予測することである。
我々は、ビデオにおけるカメラモーションの活用と、長期ビデオ情報の導入という3つの新しい側面を生かした。
論文 参考訳(メタデータ) (2020-07-02T00:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。