論文の概要: LLP: LLM-based Product Pricing in E-commerce
- arxiv url: http://arxiv.org/abs/2510.09347v1
- Date: Fri, 10 Oct 2025 13:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.999537
- Title: LLP: LLM-based Product Pricing in E-commerce
- Title(参考訳): LLP:電子商取引におけるLCMベースの製品価格設定
- Authors: Hairu Wang, Sheng You, Qiheng Zhang, Xike Xie, Shuguang Han, Yuchen Wu, Fei Huang, Jufeng Chen,
- Abstract要約: 本稿では,Large Language Models (LLMs) ベースの生成フレームワークについて紹介する。
LLMは、動的市場の変化に合わせて、まず同様の製品を回収する。
次に、自由形式のテキストで重要な価格情報に対するLLMの微妙な理解を活用して、正確な価格提案を生成する。
当社は中国最大の中古eコマースプラットフォームであるXianyufootnoteXianyuにLPPを配備することに成功しました。
- 参考スコア(独自算出の注目度): 34.09012547370608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike Business-to-Consumer e-commerce platforms (e.g., Amazon), inexperienced individual sellers on Consumer-to-Consumer platforms (e.g., eBay) often face significant challenges in setting prices for their second-hand products efficiently. Therefore, numerous studies have been proposed for automating price prediction. However, most of them are based on static regression models, which suffer from poor generalization performance and fail to capture market dynamics (e.g., the price of a used iPhone decreases over time). Inspired by recent breakthroughs in Large Language Models (LLMs), we introduce LLP, the first LLM-based generative framework for second-hand product pricing. LLP first retrieves similar products to better align with the dynamic market change. Afterwards, it leverages the LLMs' nuanced understanding of key pricing information in free-form text to generate accurate price suggestions. To strengthen the LLMs' domain reasoning over retrieved products, we apply a two-stage optimization, supervised fine-tuning (SFT) followed by group relative policy optimization (GRPO), on a dataset built via bidirectional reasoning. Moreover, LLP employs a confidence-based filtering mechanism to reject unreliable price suggestions. Extensive experiments demonstrate that LLP substantially surpasses existing methods while generalizing well to unseen categories. We have successfully deployed LLP on Xianyu\footnote\{Xianyu is China's largest second-hand e-commerce platform.\}, significantly outperforming the previous pricing method. Under the same 30\% product coverage, it raises the static adoption rate (SAR) from 40\% to 72\%, and maintains a strong SAR of 47\% even at 90\% recall.
- Abstract(参考訳): Business-to-Consumerのeコマースプラットフォーム(Amazonなど)とは異なり、Consumer-to-Consumerプラットフォーム(eBayなど)の未熟な個人販売者は、中古製品の価格を効率的に設定する上で大きな課題に直面することが多い。
そのため、価格予測を自動化するための多くの研究が提案されている。
しかし、そのほとんどは静的回帰モデルに基づいており、それは一般化性能が悪く、市場のダイナミクスを捉えることができない(例えば、使用済みiPhoneの価格は時間の経過とともに減少する)。
近年のLarge Language Models (LLMs) のブレークスルーに触発されて,第2世代製品価格のための LLM ベースの生成フレームワーク LLP を紹介した。
LLPは、動的市場の変化に合わせて、まず同様の製品を回収する。
その後、自由形式のテキストにおける重要な価格情報に対するLLMの微妙な理解を活用して、正確な価格提案を生成する。
検索した製品に対するLLMのドメイン推論を強化するため、双方向の推論によって構築されたデータセットに対して、教師付き微調整(SFT)とグループ相対ポリシー最適化(GRPO)の2段階最適化を適用した。
さらに、LLPは信頼できない価格提案を拒否するために信頼に基づくフィルタリング機構を採用している。
大規模な実験により、LPPは既存の手法をかなり上回りながら、目に見えないカテゴリーによく一般化していることが示された。
我々は、中国最大の中古eコマースプラットフォームであるXianyu\footnote\{XianyuにLPPを配備することに成功しました。
以前の価格法よりもはるかに優れています。
同じ30 %の製品カバレッジの下では、静的採用率 (SAR) を 40 % から 72 % に引き上げ、90 % のリコールでも強い SAR を 47 % に維持する。
関連論文リスト
- Learning from Synthetic Labs: Language Models as Auction Participants [12.007281866970485]
本稿では, オークションの研究開発を支援するために, 新たな合成データ生成手法を提案する。
シミュレーションAIエージェント(大規模言語モデル)は,様々な古典的フォーマットのオークションにおいて,実験文献と一致していることがわかった。
論文 参考訳(メタデータ) (2025-07-12T00:00:30Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z) - A thorough benchmark of automatic text classification: From traditional approaches to large language models [9.069939079065298]
本研究は,近年のアプローチの有効性が,コストの増大を補うかどうかを考察する。
これには、従来の12のATCソリューションと最近のATCソリューションの費用対効果に関する科学的に健全な比較分析が含まれている。
コード、データ、ドキュメントのリリースにより、コミュニティは実験を複製し、フィールドを前進させることができる。
論文 参考訳(メタデータ) (2025-04-02T17:40:08Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Model Extrapolation Expedites Alignment [135.12769233630362]
本研究では,人選好によるアライメントトレーニングを迅速化するExPOという手法を提案する。
我々は、ExPOがトレーニングされたDPOモデルを20%のステップで強化し、完全に訓練されたモデルを上回ることを実証した。
ExPO は AlpacaEval 2.0 と MT-Bench ベンチマークにおいて,既存のオープンソース LLM を特に改善している。
論文 参考訳(メタデータ) (2024-04-25T17:39:50Z) - Algorithmic Collusion by Large Language Models [0.821479429671911]
我々は,Large Language Models(LLMs)に基づくアルゴリズム価格設定エージェントによる実験を行う。
LLMベースの価格設定エージェントは、オリゴポリー設定において、迅速かつ自律的に超競争的な価格と利益に達する。
オフパス分析は、これらの現象に寄与するとして価格戦争の懸念を明らかにする。
論文 参考訳(メタデータ) (2024-03-31T21:43:05Z) - SMART: Automatically Scaling Down Language Models with Accuracy Guarantees for Reduced Processing Fees [21.801053526411415]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクの性能を大幅に向上させた。
高性能LLMの配備は、主にモデル性能の向上を目的としたパラメータの増大により、かなりのコストがかかる。
SMARTは,NLPタスクの推論コストを最小限に抑えつつ,十分な結果品質を確保するために設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2024-03-11T17:45:47Z) - ICDPO: Effectively Borrowing Alignment Capability of Others via
In-context Direct Preference Optimization [24.55845271377532]
大規模な言語モデルは、安全なコンテンツの生成を保証するためにヒューマン・プライオリエンス・アライメントに依存している。
In-Context Direct Preference Optimization (ICDPO) と呼ばれる新しい手法を提案する。
ICDPOは、上記インスタントスコアラによって推定された整列応答を生成し、最終性能を向上させる。
論文 参考訳(メタデータ) (2024-02-14T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。