論文の概要: EcomEdit: An Automated E-commerce Knowledge Editing Framework for Enhanced Product and Purchase Intention Understanding
- arxiv url: http://arxiv.org/abs/2410.14276v1
- Date: Fri, 18 Oct 2024 08:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:25:39.176027
- Title: EcomEdit: An Automated E-commerce Knowledge Editing Framework for Enhanced Product and Purchase Intention Understanding
- Title(参考訳): EcomEdit: 製品と購入意図の理解を向上するためのEコマース知識自動編集フレームワーク
- Authors: Ching Ming Samuel Lau, Weiqi Wang, Haochen Shi, Baixuan Xu, Jiaxin Bai, Yangqiu Song,
- Abstract要約: 知識編集(KE)は、大規模言語モデル(LLM)における事実情報の修正と更新を目標とし、計算コストのかかる微調整なしに精度と関連性を保証する。
ECOMEDITは、Eコマース関連の知識とタスクに適した、Eコマースの知識自動編集フレームワークである。
- 参考スコア(独自算出の注目度): 42.41707796705922
- License:
- Abstract: Knowledge Editing (KE) aims to correct and update factual information in Large Language Models (LLMs) to ensure accuracy and relevance without computationally expensive fine-tuning. Though it has been proven effective in several domains, limited work has focused on its application within the e-commerce sector. However, there are naturally occurring scenarios that make KE necessary in this domain, such as the timely updating of product features and trending purchase intentions by customers, which necessitate further exploration. In this paper, we pioneer the application of KE in the e-commerce domain by presenting ECOMEDIT, an automated e-commerce knowledge editing framework tailored for e-commerce-related knowledge and tasks. Our framework leverages more powerful LLMs as judges to enable automatic knowledge conflict detection and incorporates conceptualization to enhance the semantic coverage of the knowledge to be edited. Through extensive experiments, we demonstrate the effectiveness of ECOMEDIT in improving LLMs' understanding of product descriptions and purchase intentions. We also show that LLMs, after our editing, can achieve stronger performance on downstream e-commerce tasks.
- Abstract(参考訳): 知識編集(KE)は、大規模言語モデル(LLM)における事実情報の修正と更新を目標とし、計算コストのかかる微調整なしに精度と関連性を保証する。
いくつかの領域で有効であることが証明されているが、限定的な作業は電子商取引分野における応用に焦点を当てている。
しかし、製品機能のタイムリーな更新や顧客による購入意図のトレンドなど、KEをこの領域で必要とするようなシナリオは自然に発生します。
本稿では,電子商取引関連知識・タスクに適した自動電子商取引知識編集フレームワークであるECOMEDITを提示することにより,電子商取引分野におけるKEの適用を開拓する。
我々のフレームワークは、より強力なLLMを判断として活用し、自動知識衝突検出を可能にし、編集する知識のセマンティックカバレッジを高めるために概念化を取り入れている。
広範にわたる実験を通じて,LCMの製品記述や購入意図に対する理解を改善する上で,EMCEDITの有効性を実証した。
また、編集後、下流のeコマースタスクにおいて、LCMがより強力なパフォーマンスを達成できることも示している。
関連論文リスト
- A survey on fairness of large language models in e-commerce: progress, application, and challenge [8.746342211863332]
本調査では,eコマースにおける大規模言語モデル(LLM)の公平性について検討する。
進捗、アプリケーション、そして彼らが直面している課題を調べます。
この論文は、eコマースにおける公正性の課題を批判的に扱い、トレーニングデータとアルゴリズムのバイアスが不公平な結果をもたらすことを強調している。
論文 参考訳(メタデータ) (2024-05-15T23:25:19Z) - EVEDIT: Event-based Knowledge Editing with Deductive Editing Boundaries [69.72012539060731]
大規模言語モデル(LLM)における効率的な知識編集(KE)の理論的枠組みを導入する。
本稿では,事象をイベント記述と組み合わせたイベントベースの知識編集タスクを提案する。
編集モデルにおける不確実性を解消するための既存の設定よりもイベントベースの編集の方が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2024-02-17T16:34:50Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - EcomGPT-CT: Continual Pre-training of E-commerce Large Language Models
with Semi-structured Data [67.8302955948861]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な性能を示した。
これらのモデルを特定のドメインに適用しても、ドメイン知識の欠如など、大きな課題が生じる。
我々は、Eコマースドメインを例として用いたLLMのドメイン固有の継続事前学習に焦点を当てた。
論文 参考訳(メタデータ) (2023-12-25T11:31:47Z) - Leveraging Large Language Models for Enhanced Product Descriptions in
eCommerce [6.318353155416729]
本稿では,LAMA 2.0 7B言語モデルを用いた製品記述生成の自動化手法を提案する。
私たちはこのモデルを、最大のeコマースプラットフォームの1つであるWalmartの真正な製品記述のデータセットでトレーニングします。
以上の結果から,システムはスケーラブルであるだけでなく,製品記述作成に関わる人的負担を大幅に削減することが明らかとなった。
論文 参考訳(メタデータ) (2023-10-24T00:55:14Z) - LLaMA-E: Empowering E-commerce Authoring with Object-Interleaved Instruction Following [16.800545001782037]
本稿では、顧客、販売者、プラットフォームの文脈的嗜好に対処する統合eコマースオーサリングモデルであるLLaMA-Eを提案する。
広告生成,クエリ強化製品タイトル書き換え,製品分類,購入意図の推測,一般的なeコマースQ&Aといったタスクから導かれる命令セットを設計する。
提案したLLaMA-Eモデルは、最先端評価性能を達成し、ゼロショット実用的な応用において優位性を示す。
論文 参考訳(メタデータ) (2023-08-09T12:26:37Z) - Automatic Controllable Product Copywriting for E-Commerce [58.97059802658354]
我々は、JD.comのeコマースレコメンデーションプラットフォームに、Eコマースのプレフィックスベースのコントロール可能なコピーライティング生成をデプロイする。
提案するECCCGの有効性を検証する実験を行った。
本稿では,リアルタイムのJD.com電子商取引レコメンデーションプラットフォームに,ECCCGと連携するデプロイアーキテクチャを導入する。
論文 参考訳(メタデータ) (2022-06-21T04:18:52Z) - K-AID: Enhancing Pre-trained Language Models with Domain Knowledge for
Question Answering [8.772466918885224]
ドメイン知識を取得するための低コストな知識獲得プロセスを含む体系的アプローチであるK-AIDを提案する。
既存のK-PLMの大多数のようにエンティティ知識をキャプチャする代わりに、我々のアプローチはリレーショナル知識をキャプチャする。
筆者らは,Eコマース,政府,フィルム&TVの3分野から5つのテキスト分類タスクと3つのテキストマッチングタスクについて実験を行い,EコマースにおけるオンラインA/Bテストを実施した。
論文 参考訳(メタデータ) (2021-09-22T07:19:08Z) - K-PLUG: Knowledge-injected Pre-trained Language Model for Natural
Language Understanding and Generation in E-Commerce [38.9878151656255]
K-PLUGは、エンコーダデコーダトランスフォーマーに基づく知識インジェクション型プリトレーニング言語モデルです。
ドメイン特化知識の学習を定式化する5つの自己指導型事前学習目標を提案する。
論文 参考訳(メタデータ) (2021-04-14T16:37:31Z) - E-BERT: A Phrase and Product Knowledge Enhanced Language Model for
E-commerce [63.333860695727424]
電子商取引タスクは、ドメインフレーズの正確な理解を必要とするが、そのようなきめ細かいフレーズレベルの知識は、BERTの訓練目的によって明示的にモデル化されていない。
この問題に対処するため、我々はE-BERTという統合事前学習フレームワークを提案する。
具体的には、フレーズレベルの知識を保存するために、適応的ハイブリッドマスキングを導入し、モデルが予備単語の知識から複雑なフレーズの学習に適応的に切り替えることを可能にする。
製品レベルの知識を活用するために,E-BERT を訓練し,製品に付随する隣人を認知的なクロスアテンション層で予測するNighbor Product Restruction を導入する。
論文 参考訳(メタデータ) (2020-09-07T00:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。