論文の概要: Extracting Important Tokens in E-Commerce Queries with a Tag Interaction-Aware Transformer Model
- arxiv url: http://arxiv.org/abs/2507.10385v1
- Date: Mon, 14 Jul 2025 15:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.268076
- Title: Extracting Important Tokens in E-Commerce Queries with a Tag Interaction-Aware Transformer Model
- Title(参考訳): タグ相互対応変圧器モデルを用いた電子商取引における重要なトークンの抽出
- Authors: Md. Ahsanul Kabir, Mohammad Al Hasan, Aritra Mandal, Liyang Hao, Ishita Khan, Daniel Tunkelang, Zhe Wu,
- Abstract要約: 本稿では,より優れたクエリフレーズの埋め込みを学習するために,トークンのセマンティックタグを利用した依存性認識型言語モデルTagBERTを提案する。
大規模な実生活のeコマースデータセットの実験では、TagBERTは競合するモデルよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 6.056820715074176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The major task of any e-commerce search engine is to retrieve the most relevant inventory items, which best match the user intent reflected in a query. This task is non-trivial due to many reasons, including ambiguous queries, misaligned vocabulary between buyers, and sellers, over- or under-constrained queries by the presence of too many or too few tokens. To address these challenges, query reformulation is used, which modifies a user query through token dropping, replacement or expansion, with the objective to bridge semantic gap between query tokens and users' search intent. Early methods of query reformulation mostly used statistical measures derived from token co-occurrence frequencies from selective user sessions having clicks or purchases. In recent years, supervised deep learning approaches, specifically transformer-based neural language models, or sequence-to-sequence models are being used for query reformulation task. However, these models do not utilize the semantic tags of a query token, which are significant for capturing user intent of an e-commerce query. In this work, we pose query reformulation as a token classification task, and solve this task by designing a dependency-aware transformer-based language model, TagBERT, which makes use of semantic tags of a token for learning superior query phrase embedding. Experiments on large, real-life e-commerce datasets show that TagBERT exhibits superior performance than plethora of competing models, including BERT, eBERT, and Sequence-to-Sequence transformer model for important token classification task.
- Abstract(参考訳): あらゆるEコマース検索エンジンの主要なタスクは、クエリに反映されたユーザの意図に最もよくマッチする、最も関連性の高いインベントリアイテムを検索することである。
このタスクは、あいまいなクエリ、買い手と売り手の間の不一致の語彙、過度に多くのトークンや少なすぎるトークンの存在による過度に制約されたクエリなど、多くの理由から、簡単ではない。
これらの課題に対処するためには、クエリトークンとユーザの検索意図の間のセマンティックギャップを橋渡しする目的で、トークンのドロップ、置換、拡張を通じてユーザクエリを変更するクエリ再構成が使用される。
クエリ再構成の初期の方法は、主に、クリックまたは購入を持つ選択ユーザーセッションからトークン共起周波数から派生した統計測度を用いていた。
近年では、特にトランスフォーマーベースのニューラルネットワークモデルやシーケンス・ツー・シーケンスモデルといった、教師付きディープラーニングアプローチが、クエリ修正タスクに使用されている。
しかし、これらのモデルはクエリトークンのセマンティックタグを使用せず、これはEコマースクエリのユーザ意図をキャプチャするのに重要である。
本研究では,トークン分類タスクとして問合せ改定を行い,より優れた問合せ句の埋め込みを学習するために,トークンのセマンティックタグを利用する依存性対応トランスフォーマーベースの言語モデルであるTagBERTを設計することにより,この課題を解決する。
大規模で実生活のeコマースデータセットの実験では、重要なトークン分類タスクのためのBERT、eBERT、Sequence-to-Sequence変換モデルなど、TagBERTは競合するモデルよりも優れたパフォーマンスを示している。
関連論文リスト
- Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Generative Retrieval with Preference Optimization for E-commerce Search [16.78829577915103]
我々は、好みを最適化した生成検索という、Eコマース検索のための革新的なフレームワークを開発する。
生の項目のタイトルを表すためにマルチスパン識別子を使用し、クエリからタイトルを生成するタスクを、クエリからマルチスパン識別子を生成するタスクに変換する。
実験の結果,本フレームワークは実世界のデータセット上での競合性能を実現し,オンラインA/Bテストはコンバージョンゲインの改善における優位性と有効性を示した。
論文 参考訳(メタデータ) (2024-07-29T09:31:19Z) - Database-Augmented Query Representation for Information Retrieval [59.57065228857247]
データベース拡張クエリ表現(DAQu)と呼ばれる新しい検索フレームワークを提案する。
DAQuは、元のクエリを複数のテーブルにまたがるさまざまな(クエリ関連の)メタデータで拡張する。
リレーショナルデータベースのメタデータを組み込む様々な検索シナリオにおいてDAQuを検証する。
論文 参考訳(メタデータ) (2024-06-23T05:02:21Z) - QueryNER: Segmentation of E-commerce Queries [12.563241705572409]
電子商取引クエリセグメンテーションのための手動注釈付きデータセットと付随モデルを提案する。
私たちの研究は、クエリを広く適用可能な型を持った意味のあるチャンクに分割するという目標に焦点を当てています。
論文 参考訳(メタデータ) (2024-05-15T16:58:35Z) - MMGRec: Multimodal Generative Recommendation with Transformer Model [81.61896141495144]
MMGRecは、マルチモーダルレコメンデーションに生成パラダイムを導入することを目指している。
まず,階層的な量子化手法であるGraph CF-RQVAEを考案し,各項目にRec-IDを割り当てる。
次に、Transformerベースのレコメンデータをトレーニングし、過去のインタラクションシーケンスに基づいて、ユーザが推奨するアイテムのRec-IDを生成する。
論文 参考訳(メタデータ) (2024-04-25T12:11:27Z) - A General Model for Aggregating Annotations Across Simple, Complex, and
Multi-Object Annotation Tasks [51.14185612418977]
ラベルの品質を改善するための戦略は、複数のアノテータに同じ項目にラベルを付け、ラベルを集約するように求めることである。
特定のタスクに対して様々なbespokeモデルが提案されているが、様々な複雑なタスクを一般化するアグリゲーションメソッドを導入するのはこれが初めてである。
本論では,3つの新たな研究課題について検討し,今後の課題を概説する。
論文 参考訳(メタデータ) (2023-12-20T21:28:35Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - Query Rewriting via Cycle-Consistent Translation for E-Commerce Search [13.723266150864037]
本稿では,新しいディープニューラルネットワークによる問合せ書き換え手法を提案する。
繰り返し機械翻訳問題にクエリ書き換えを定式化します。
最新の機械翻訳モデルと連動した、新しいサイクル整合性トレーニングアルゴリズムを紹介します。
論文 参考訳(メタデータ) (2021-03-01T06:47:12Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z) - MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning [16.88648782206587]
本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
論文 参考訳(メタデータ) (2020-04-13T08:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。