論文の概要: Transformer Choice Net: A Transformer Neural Network for Choice
Prediction
- arxiv url: http://arxiv.org/abs/2310.08716v1
- Date: Thu, 12 Oct 2023 20:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 15:31:37.019891
- Title: Transformer Choice Net: A Transformer Neural Network for Choice
Prediction
- Title(参考訳): 変圧器選択ネット:選択予測のための変圧器ニューラルネットワーク
- Authors: Hanzhao Wang, Xiaocheng Li, Kalyan Talluri
- Abstract要約: 我々は,複数の選択を予測できるニューラルネットワークアーキテクチャであるTransformer Choice Netを開発した。
トランスフォーマーネットワークは、顧客の特徴やアイテムだけでなく、コンテキストも考慮し、このタスクに特に適していることがわかりました。
本アーキテクチャは,文献の先行するモデルと比較して,一様に優れた予測性能を示す。
- 参考スコア(独自算出の注目度): 6.6543199581017625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete-choice models, such as Multinomial Logit, Probit, or Mixed-Logit,
are widely used in Marketing, Economics, and Operations Research: given a set
of alternatives, the customer is modeled as choosing one of the alternatives to
maximize a (latent) utility function. However, extending such models to
situations where the customer chooses more than one item (such as in e-commerce
shopping) has proven problematic. While one can construct reasonable models of
the customer's behavior, estimating such models becomes very challenging
because of the combinatorial explosion in the number of possible subsets of
items. In this paper we develop a transformer neural network architecture, the
Transformer Choice Net, that is suitable for predicting multiple choices.
Transformer networks turn out to be especially suitable for this task as they
take into account not only the features of the customer and the items but also
the context, which in this case could be the assortment as well as the
customer's past choices. On a range of benchmark datasets, our architecture
shows uniformly superior out-of-sample prediction performance compared to the
leading models in the literature, without requiring any custom modeling or
tuning for each instance.
- Abstract(参考訳): 多項ロジット(multinomial logit)、プロビット(probit)、混合ロジット(mixed-logit)といった離散型チョイスモデルは、マーケティング、経済、オペレーションの研究において広く使われている。
しかし、このようなモデルを複数の商品(eコマースショッピングなど)を選択した状況に拡張することは問題視されている。
顧客行動の合理的なモデルを構築することはできるが、これらのモデルの推定は、アイテムのサブセットの数の組合せの爆発のために非常に困難になる。
本稿では,複数の選択肢を予測するのに適したトランスフォーマーニューラルネットワークアーキテクチャであるtransformer choice netを開発した。
トランスフォーマーネットワークはこのタスクに特に適しており、顧客とアイテムの特徴だけでなく、この場合において顧客の過去の選択と同様にソートも考慮している。
ベンチマークデータセットの幅では、各インスタンスのカスタムモデリングやチューニングを必要とせず、文献における主要なモデルと比較して、サンプル外の予測性能が均一に優れている。
関連論文リスト
- B-cosification: Transforming Deep Neural Networks to be Inherently Interpretable [53.848005910548565]
B-コシフィケーション(B-cosification)は、既存の訓練済みモデルを本質的に解釈可能なものにするための新しいアプローチである。
B-コシフィケーションは、解釈可能性の観点から、スクラッチから訓練されたB-コシフィケーションモデルに匹敵するモデルが得られる。
論文 参考訳(メタデータ) (2024-11-01T16:28:11Z) - Budgeted Online Model Selection and Fine-Tuning via Federated Learning [26.823435733330705]
オンラインモデル選択では、候補モデルのセットからモデルを選択して、データのストリームで予測を実行する。
その後の候補モデルの選択は、パフォーマンスに決定的な影響を与えます。
本稿では,学習者グループ(クライアント)が十分なメモリを持つサーバと対話するオンラインフェデレーションモデル選択フレームワークを提案する。
提案したアルゴリズムを用いて、クライアントとサーバは微調整モデルと協調して非定常環境に適応する。
論文 参考訳(メタデータ) (2024-01-19T04:02:49Z) - A Neural Network Based Choice Model for Assortment Optimization [5.173001988341294]
ニューラルネットワークアーキテクチャが、さまざまなコンテキストからデータセットの購入確率を予測することができるかどうかを検討する。
次に,既製の整数計画解法で解けるアソシエーション最適化の定式化を開発する。
論文 参考訳(メタデータ) (2023-08-10T15:01:52Z) - Fast Adaptation with Bradley-Terry Preference Models in Text-To-Image
Classification and Generation [0.0]
我々はBradley-Terry選好モデルを利用して、元のモデルを効率的に微調整する高速適応法を開発した。
このフレームワークの能力の広範な証拠は、マルチモーダルテキストや画像理解に関連するさまざまな領域の実験を通じて提供される。
論文 参考訳(メタデータ) (2023-07-15T07:53:12Z) - Exploring and Evaluating Personalized Models for Code Generation [9.25440316608194]
パーソナライズのための変換器モデルの微調整を評価する。
i) すべてのモデルパラメータをチューニングできるカスタム微調整。
コード生成のためのこれらの微調整戦略を比較し、様々なデプロイメントシナリオにおいて、それぞれの潜在的な一般化とコスト効果について議論する。
論文 参考訳(メタデータ) (2022-08-29T23:28:46Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - MetaQA: Combining Expert Agents for Multi-Skill Question Answering [49.35261724460689]
マルチデータセットモデルの有望な結果にもかかわらず、いくつかのドメインやQAフォーマットは特定のアーキテクチャを必要とするかもしれません。
本稿では,専門家エージェントと,質問,回答予測,回答予測信頼度スコアを考慮した,新しい,柔軟な,学習効率の高いアーキテクチャを組み合わせることを提案する。
論文 参考訳(メタデータ) (2021-12-03T14:05:52Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z) - A linearized framework and a new benchmark for model selection for
fine-tuning [112.20527122513668]
異なるドメインで事前訓練されたモデルの集合からの微調整は、低データ体制におけるテストの精度を向上させる技術として現れている。
モデル選択のための2つの新しいベースライン - Label-Gradient と Label-Feature correlation を導入する。
我々のベンチマークでは、微調整されたイメージネットモデルと比較して、モデル動物園での精度向上が強調されている。
論文 参考訳(メタデータ) (2021-01-29T21:57:15Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。