論文の概要: E-CARE: An Efficient LLM-based Commonsense-Augmented Framework for E-Commerce
- arxiv url: http://arxiv.org/abs/2511.04087v1
- Date: Thu, 06 Nov 2025 05:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.322971
- Title: E-CARE: An Efficient LLM-based Commonsense-Augmented Framework for E-Commerce
- Title(参考訳): E-CARE: 効率的なLCMベースのEコマースのためのCommonsense-Augmented Framework
- Authors: Ge Zhang, Rohan Deepak Ajwani, Tony Zheng, Hongjian Gu, Yaochen Hu, Wei Guo, Mark Coates, Yingxue Zhang,
- Abstract要約: 電子商取引業務における効率的なコモンセンス強化勧告エンハンサー(E-CARE)を提案する。
推論中、E-CAREで拡張されたモデルは、クエリ毎に1つのLSMフォワードパスでコモンセンス推論にアクセスすることができる。
2つの下流タスクの実験では、精度が最大12.1%向上した。
- 参考スコア(独自算出の注目度): 26.230331478424517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding relevant products given a user query plays a pivotal role in an e-commerce platform, as it can spark shopping behaviors and result in revenue gains. The challenge lies in accurately predicting the correlation between queries and products. Recently, mining the cross-features between queries and products based on the commonsense reasoning capacity of Large Language Models (LLMs) has shown promising performance. However, such methods suffer from high costs due to intensive real-time LLM inference during serving, as well as human annotations and potential Supervised Fine Tuning (SFT). To boost efficiency while leveraging the commonsense reasoning capacity of LLMs for various e-commerce tasks, we propose the Efficient Commonsense-Augmented Recommendation Enhancer (E-CARE). During inference, models augmented with E-CARE can access commonsense reasoning with only a single LLM forward pass per query by utilizing a commonsense reasoning factor graph that encodes most of the reasoning schema from powerful LLMs. The experiments on 2 downstream tasks show an improvement of up to 12.1% on precision@5.
- Abstract(参考訳): ユーザクエリーが与えられた関連製品を見つけることは、ショッピング行動を引き起こし、収益が上がる可能性があるため、Eコマースプラットフォームにおいて重要な役割を担っている。
課題は、クエリと製品間の相関を正確に予測することにある。
近年,Large Language Models (LLMs) のコモンセンス推論能力に基づいて,クエリと製品間のクロスフィーチャーをマイニングする手法が,有望な性能を示している。
しかし、このような手法は、サービス中にリアルタイムのLLM推論が集中的に行われることや、人間のアノテーションや潜在的なスーパーバイザード・ファイン・チューニング(SFT)によってコストが上昇する。
各種電子商取引業務において, LLMのコモンセンス推論能力を活用しつつ効率を向上させるために, 効率的なコモンセンス拡張レコメンデーション・エンハンサー(E-CARE)を提案する。
E-CAREで拡張されたモデルは、強力なLLMからほとんどの推論スキーマをエンコードするCommonsense reasoning factor graphを利用することで、クエリ毎に1つのLLMフォワードパスでコモンセンス推論にアクセスできる。
2つの下流タスクの実験では、精度@5で最大12.1%改善されている。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LREF: A Novel LLM-based Relevance Framework for E-commerce [14.217396055372053]
本稿では,eコマース検索の妥当性を高めることを目的とした,LREF(LLM-based Relevance Framework)と呼ばれる新しいフレームワークを提案する。
大規模な実世界のデータセットのオフライン実験やオンラインA/Bテストを通じて,フレームワークの性能を評価する。
このモデルは有名なeコマースアプリケーションにデプロイされ、かなりの商業的利益をもたらした。
論文 参考訳(メタデータ) (2025-03-12T10:10:30Z) - Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search [3.392843594990172]
クエリとプロダクトのペアをアノテートするための従来のアプローチは、人間ベースのラベリングサービスに依存している。
本研究では,Large Language Models (LLMs) が,人間ラベル作成者に必要な時間とコストのごく一部で,このタスクにおける人間レベルの精度にアプローチ可能であることを示す。
この拡張性のある人間のアノテーションの代替は、情報検索領域に重大な影響を及ぼす。
論文 参考訳(メタデータ) (2025-02-21T22:59:36Z) - Explainable LLM-driven Multi-dimensional Distillation for E-Commerce Relevance Learning [20.569157915157817]
電子商取引関連学習のための説明可能なLCM駆動多次元蒸留フレームワークを提案する。
提案手法は,eコマース関連学習性能とユーザエクスペリエンスを大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-20T05:30:15Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Optimizing LLM Queries in Relational Data Analytics Workloads [50.95919232839785]
バッチデータ分析は、Large Language Models(LLMs)の急成長するアプリケーションである
LLMは、分類、エンティティ抽出、翻訳などの幅広い自然言語タスクを、大規模なデータセット上で実行可能にする。
本稿では,LLMコールによるリレーショナルデータ解析処理のコストを大幅に削減できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-09T07:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。