論文の概要: Text Understanding and Generation Using Transformer Models for
Intelligent E-commerce Recommendations
- arxiv url: http://arxiv.org/abs/2402.16035v1
- Date: Sun, 25 Feb 2024 09:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:43:04.253752
- Title: Text Understanding and Generation Using Transformer Models for
Intelligent E-commerce Recommendations
- Title(参考訳): インテリジェントEコマースレコメンデーションのためのトランスフォーマーモデルを用いたテキスト理解と生成
- Authors: Yafei Xiang, Hanyi Yu, Yulu Gong, Shuning Huo, Mengran Zhu
- Abstract要約: 本稿では,eコマーステキスト理解とレコメンデーション生成におけるTransformer事前学習モデルのコアアプリケーションシナリオについて概説する。
本稿では、複雑なユーザの意図を理解し、レコメンデーションの品質を向上する上で、事前学習モデルのユニークな利点を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid development of artificial intelligence technology, Transformer
structural pre-training model has become an important tool for large language
model (LLM) tasks. In the field of e-commerce, these models are especially
widely used, from text understanding to generating recommendation systems,
which provide powerful technical support for improving user experience and
optimizing service processes. This paper reviews the core application scenarios
of Transformer pre-training model in e-commerce text understanding and
recommendation generation, including but not limited to automatic generation of
product descriptions, sentiment analysis of user comments, construction of
personalized recommendation system and automated processing of customer service
conversations. Through a detailed analysis of the model's working principle,
implementation process, and application effects in specific cases, this paper
emphasizes the unique advantages of pre-trained models in understanding complex
user intentions and improving the quality of recommendations. In addition, the
challenges and improvement directions for the future are also discussed, such
as how to further improve the generalization ability of the model, the ability
to handle large-scale data sets, and technical strategies to protect user
privacy. Ultimately, the paper points out that the application of Transformer
structural pre-training models in e-commerce has not only driven technological
innovation, but also brought substantial benefits to merchants and consumers,
and looking forward, these models will continue to play a key role in
e-commerce and beyond.
- Abstract(参考訳): 人工知能技術の急速な発展に伴い、トランスフォーマー構造事前学習モデルは、大規模言語モデル(LLM)タスクにとって重要なツールとなっている。
電子商取引の分野では、テキスト理解からレコメンデーションシステムの生成に至るまで、これらのモデルが特に広く使われている。
本稿では,eコマーステキスト理解およびレコメンデーション生成におけるTransformer事前学習モデルのコアアプリケーションシナリオについて,製品記述の自動生成,ユーザコメントの感情分析,パーソナライズされたレコメンデーションシステムの構築,顧客サービス会話の自動処理などについて概説する。
本稿では, 複雑なユーザの意図を理解し, 推薦の質を向上させる上で, 事前学習したモデルの独特な利点を強調し, モデル動作原理, 実装プロセス, 応用効果の詳細な分析を行った。
さらに,モデルの一般化能力の向上,大規模データセットの処理能力,ユーザのプライバシ保護のための技術的戦略など,今後の課題や改善の方向性についても論じる。
最終的に、eコマースにおけるトランスフォーマー構造事前学習モデルの適用は、技術革新を駆動するだけでなく、商業者や消費者に大きな利益をもたらし、今後、これらのモデルはeコマースなどにおいて重要な役割を担い続けるだろう、と論文は指摘している。
関連論文リスト
- Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - End-Cloud Collaboration Framework for Advanced AI Customer Service in E-commerce [10.443070269390871]
近年、eコマース業界は、高度なAI駆動のカスタマーサービスソリューションに対する需要が急増している。
従来のクラウドベースのモデルは、レイテンシ、パーソナライズされたサービス、プライバシの懸念といった面で制限に直面しています。
我々は,eコマースにおける高度なAIカスタマーサービスのための革新的なエンドクラウドコラボレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T13:46:54Z) - Enhancing Customer Churn Prediction in Telecommunications: An Adaptive Ensemble Learning Approach [0.0]
本稿では,高精度な顧客チャーン予測のための適応型アンサンブル学習フレームワークを提案する。
このフレームワークは、XGBoost、LightGBM、LSTM、Multi-Layer Perceptron(MLP)ニューラルネットワーク、Support Vector Machine(SVM)など、複数のベースモデルを統合する。
この研究は99.28%の精度を達成し、チャーン予測の大きな進歩を示している。
論文 参考訳(メタデータ) (2024-08-29T06:27:42Z) - Towards Lifelong Learning Embeddings: An Algorithmic Approach to Dynamically Extend Embeddings [4.680296118462097]
本稿では,学習知識を保存しながら,組込み型入力サイズを拡張するモジュールアルゴリズムを提案する。
提案アルゴリズムは,新規製品に関連するコールドスタート問題を緩和する戦略も取り入れている。
論文 参考訳(メタデータ) (2024-08-26T09:06:35Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Intelligent Classification and Personalized Recommendation of E-commerce Products Based on Machine Learning [2.152073242131379]
本稿では、eコマース、コンテンツ情報、メディアドメインにおけるパーソナライズされたレコメンデーションシステムの重要性と応用について考察する。
データプライバシ、アルゴリズムバイアス、スケーラビリティ、コールドスタート問題など、Eコマースにおいてパーソナライズされたレコメンデーションシステムに直面する課題を概説する。
本稿では、BERTモデルと近隣のアルゴリズムを利用したパーソナライズされたレコメンデーションシステムの概要を述べる。
論文 参考訳(メタデータ) (2024-03-28T12:02:45Z) - Breaking the Barrier: Utilizing Large Language Models for Industrial
Recommendation Systems through an Inferential Knowledge Graph [19.201697767418597]
大規模言語モデルに基づく補完的知識強化推薦システム(LLM-KERec)を提案する。
アイテムとユーザ情報から統一された概念用語を抽出し、ユーザ意図の遷移をキャプチャし、新しいアイテムに適応する。
3つの業界データセットで実施された大規模な実験は、既存のアプローチと比較して、我々のモデルの大幅な性能向上を実証している。
論文 参考訳(メタデータ) (2024-02-21T12:22:01Z) - Automatic Controllable Product Copywriting for E-Commerce [58.97059802658354]
我々は、JD.comのeコマースレコメンデーションプラットフォームに、Eコマースのプレフィックスベースのコントロール可能なコピーライティング生成をデプロイする。
提案するECCCGの有効性を検証する実験を行った。
本稿では,リアルタイムのJD.com電子商取引レコメンデーションプラットフォームに,ECCCGと連携するデプロイアーキテクチャを導入する。
論文 参考訳(メタデータ) (2022-06-21T04:18:52Z) - Re-parameterizing Your Optimizers rather than Architectures [119.08740698936633]
本稿では,モデル固有の事前知識を構造学に取り入れ,汎用モデル(簡易モデル)の学習に使用する新しいパラダイムを提案する。
実装として,モデル固有のハイパーパラメータの集合に従って勾配を変更することによって,事前知識を付加する手法を提案する。
Reprでトレーニングされた単純なモデルに対しては、VGGスタイルのプレーンモデルに注目し、ReprでトレーニングされたそのようなシンプルなモデルがRep-VGGと呼ばれ、最近のよく設計されたモデルと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-05-30T16:55:59Z) - Towards Personalized Answer Generation in E-Commerce via
Multi-Perspective Preference Modeling [62.049330405736406]
Eコマースプラットフォーム上での製品質問回答(PQA)は、インテリジェントオンラインショッピングアシスタントとして機能するため、注目を集めている。
なぜなら、多くの顧客は、自分でのみカスタマイズされた情報でパーソナライズされた回答を見たいと思っているからです。
PQAにおけるパーソナライズされた回答を生成するための,新しいマルチパースペクティブなユーザ嗜好モデルを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:51:49Z) - PreSizE: Predicting Size in E-Commerce using Transformers [76.33790223551074]
PreSizEは、Transformerを使って正確なサイズ予測を行う新しいディープラーニングフレームワークである。
我々は,PreSizEが従来の最先端のベースラインよりも優れた予測性能を実現できることを示した。
概念実証として、PreSizEによるサイズ予測が、既存の生産推奨システムに統合できることを実証しています。
論文 参考訳(メタデータ) (2021-05-04T15:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。