論文の概要: Generating In-store Customer Journeys from Scratch with GPT Architectures
- arxiv url: http://arxiv.org/abs/2407.11081v1
- Date: Sat, 13 Jul 2024 12:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 20:00:37.468232
- Title: Generating In-store Customer Journeys from Scratch with GPT Architectures
- Title(参考訳): GPTアーキテクチャによるスクラッチから店内顧客ジャーニーの生成
- Authors: Taizo Horikomi, Takayuki Mizuno,
- Abstract要約: 本稿では,小売店舗における顧客トラジェクトリと購入行動を同時に生成する手法を提案する。
我々はGPT-2アーキテクチャをスクラッチからトレーニングし、屋内軌跡と購入行動を生成した。
その結果,本手法はLSTMモデルやSVMモデルよりも,店内軌道や購入行動をより正確に再現できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method that can generate customer trajectories and purchasing behaviors in retail stores simultaneously using Transformer-based deep learning structure. Utilizing customer trajectory data, layout diagrams, and retail scanner data obtained from a retail store, we trained a GPT-2 architecture from scratch to generate indoor trajectories and purchase actions. Additionally, we explored the effectiveness of fine-tuning the pre-trained model with data from another store. Results demonstrate that our method reproduces in-store trajectories and purchase behaviors more accurately than LSTM and SVM models, with fine-tuning significantly reducing the required training data.
- Abstract(参考訳): 本稿では,Transformerをベースとしたディープラーニング構造を用いて,小売店舗における顧客トラジェクトリと購入行動を同時に生成する手法を提案する。
顧客トラジェクトリデータ,レイアウト図,小売店から取得した小売スキャナデータを利用して,GPT-2アーキテクチャをスクラッチからトレーニングし,屋内トラジェクトリと購入行動を生成した。
さらに,事前学習したモデルを他の店舗のデータで微調整する効果についても検討した。
その結果,本手法はLSTMモデルやSVMモデルよりも店内軌道や購入行動をより正確に再現でき,微調整により必要なトレーニングデータを大幅に削減できることがわかった。
関連論文リスト
- Scaling Retrieval-Based Language Models with a Trillion-Token Datastore [85.4310806466002]
検索ベースLMが使用するデータストアのサイズを増大させることで,言語モデリングや下流タスクを一元的に改善できることがわかった。
データストア、モデル、事前学習データサイズで計算最適スケーリング曲線をプロットすることにより、より大きなデータストアを使用することで、同じトレーニング計算予算のモデル性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-09T08:27:27Z) - Simulation-Based Benchmarking of Reinforcement Learning Agents for Personalized Retail Promotions [17.0313335845013]
本稿では,RLエージェントのベンチマークを目的としたショッピング行動の包括的シミュレーションについて述べる。
私たちは、顧客購入履歴を要約したオフラインバッチデータを使用してエージェントを訓練し、この効果を緩和しました。
実験の結果,スパース報酬分布に過度に適合しない文脈的帯域幅と深部RL法は,静的ポリシーよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-05-16T23:27:21Z) - Revolutionizing Retail Analytics: Advancing Inventory and Customer Insight with AI [0.0]
本稿では,最先端機械学習技術を活用した革新的なアプローチを提案する。
我々は、これらの技術を活用して小売効率と顧客エンゲージメントを向上させる、高度なスマート小売分析システム(SRAS)の構築を目指している。
論文 参考訳(メタデータ) (2024-02-24T11:03:01Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Training with Product Digital Twins for AutoRetail Checkout [28.823850493539293]
デジタル双生児(DtTrain)を用いたトレーニングデータ最適化フレームワークを提案する。
これらのデジタルツインは製品ラベルを継承し、拡張されるとデジタルツイントレーニングセット(DTセット)を形成する。
本実験では,既存のデータセット合成手法で作成したトレーニングセットを,精度の点で性能的に優れることを示す。
論文 参考訳(メタデータ) (2023-08-18T17:58:10Z) - RecD: Deduplication for End-to-End Deep Learning Recommendation Model
Training Infrastructure [3.991664287163157]
RecDは、産業規模のDLRMトレーニングデータセットに固有の機能の重複に起因する膨大なストレージ、前処理、トレーニングオーバーヘッドに対処する。
本稿では,産業規模のDLRMトレーニングシステムにおいて,RecDが最大2.48倍,1.79倍,3.71倍のスループットとストレージ効率を向上させる方法を示す。
論文 参考訳(メタデータ) (2022-11-09T22:21:19Z) - Teacher Guided Training: An Efficient Framework for Knowledge Transfer [86.6784627427194]
高品質なコンパクトモデルを訓練するための教師誘導訓練(TGT)フレームワークを提案する。
TGTは、教師が基礎となるデータドメインの優れた表現を取得したという事実を利用する。
TGTは複数の画像分類ベンチマークやテキスト分類や検索タスクの精度を向上させることができる。
論文 参考訳(メタデータ) (2022-08-14T10:33:58Z) - PreTraM: Self-Supervised Pre-training via Connecting Trajectory and Map [58.53373202647576]
軌道予測のための自己教師付き事前学習方式であるPreTraMを提案する。
1) トラジェクティブ・マップ・コントラクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)の2つのパートから構成される。
AgentFormerやTrajectron++といった一般的なベースラインに加えて、PreTraMは、挑戦的なnuScenesデータセット上で、FDE-10でパフォーマンスを5.5%と6.9%向上させる。
論文 参考訳(メタデータ) (2022-04-21T23:01:21Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。