論文の概要: Extreme Multi-label Learning for Semantic Matching in Product Search
- arxiv url: http://arxiv.org/abs/2106.12657v1
- Date: Wed, 23 Jun 2021 21:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 14:54:30.448181
- Title: Extreme Multi-label Learning for Semantic Matching in Product Search
- Title(参考訳): 製品探索における意味マッチングのためのエクストリームマルチラベル学習
- Authors: Wei-Cheng Chang, Daniel Jiang, Hsiang-Fu Yu, Choon-Hui Teo, Jiong
Zhang, Kai Zhong, Kedarnath Kolluri, Qie Hu, Nikhil Shandilya, Vyacheslav
Ievgrafov, Japinder Singh, Inderjit S. Dhillon
- Abstract要約: 顧客クエリが与えられたら、1億以上の巨大なカタログから、すべてのセマンティック関連製品を取得する。
高速リアルタイム推論のためのn-gram特徴を持つ階層線形モデルを考える。
提案手法では,クエリ毎1.25ミリ秒の低レイテンシを維持し,Recall@100の65%の改善を実現している。
- 参考スコア(独自算出の注目度): 41.66238191444171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of semantic matching in product search: given a
customer query, retrieve all semantically related products from a huge catalog
of size 100 million, or more. Because of large catalog spaces and real-time
latency constraints, semantic matching algorithms not only desire high recall
but also need to have low latency. Conventional lexical matching approaches
(e.g., Okapi-BM25) exploit inverted indices to achieve fast inference time, but
fail to capture behavioral signals between queries and products. In contrast,
embedding-based models learn semantic representations from customer behavior
data, but the performance is often limited by shallow neural encoders due to
latency constraints. Semantic product search can be viewed as an eXtreme
Multi-label Classification (XMC) problem, where customer queries are input
instances and products are output labels. In this paper, we aim to improve
semantic product search by using tree-based XMC models where inference time
complexity is logarithmic in the number of products. We consider hierarchical
linear models with n-gram features for fast real-time inference.
Quantitatively, our method maintains a low latency of 1.25 milliseconds per
query and achieves a 65% improvement of Recall@100 (60.9% v.s. 36.8%) over a
competing embedding-based DSSM model. Our model is robust to weight pruning
with varying thresholds, which can flexibly meet different system requirements
for online deployments. Qualitatively, our method can retrieve products that
are complementary to existing product search system and add diversity to the
match set.
- Abstract(参考訳): 製品検索におけるセマンティックマッチングの問題について考察する。顧客の問い合わせを与えられた場合、1億以上の巨大なカタログからすべてのセマンティック関連商品を検索する。
大きなカタログ空間とリアルタイムレイテンシの制約のため、セマンティックマッチングアルゴリズムは高いリコールを求めるだけでなく、低レイテンシを必要とする。
従来の語彙マッチングアプローチ(例えばokapi-bm25)は、逆インデックスを利用して高速な推論時間を達成するが、クエリと製品間の動作信号をキャプチャしない。
対照的に、埋め込みベースのモデルは顧客の行動データからセマンティック表現を学習するが、レイテンシの制約により、浅いニューラルエンコーダによって性能が制限されることが多い。
セマンティック製品検索は、顧客クエリが入力インスタンスであり、製品が出力ラベルである、極端なマルチラベル分類(xmc)の問題と見なすことができる。
本稿では,推論時間の複雑さが製品数に対数である木ベースxmcモデルを用いて,意味的製品探索を改善することを目的とする。
高速リアルタイム推論のためのn-gram特徴を持つ階層線形モデルを考える。
定量的には、1クエリあたりのレイテンシが1.25ミリ秒と低く、recall@100 (60.9%v.s) を65%向上させた。
36.8%) が競合する組込みベースのdssmモデルより優れている。
私たちのモデルは、さまざまなしきい値で重み付けし、オンラインデプロイメントの異なるシステム要件を柔軟に満たすことができます。
質的には,既存の製品検索システムと相補的な製品を検索し,マッチセットに多様性を加えることができる。
関連論文リスト
- Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - Revisiting Neural Retrieval on Accelerators [20.415728886298915]
検索の重要な構成要素は、(ユーザ、アイテム)類似性をモデル化することである。
その人気にもかかわらず、ドット製品は多面的であり、おそらく高いランクにある複雑なユーザとイテムのインタラクションをキャプチャすることはできない。
本稿では,基本類似度関数の適応的構成として,ユーザ,アイテムの類似度をモデル化したロジットのテキストミックス(MoL)を提案する。
論文 参考訳(メタデータ) (2023-06-06T22:08:42Z) - Let's Sample Step by Step: Adaptive-Consistency for Efficient Reasoning
and Coding with LLMs [60.58434523646137]
大規模言語モデル(LLM)からの出力の正確性を改善するための一般的なアプローチは、自己整合性である。
コスト効率のよいモデルに依存しない手法であるAdaptive-Consistencyを導入し,各質問のサンプル数を動的に調整する。
実験の結果,Adaptive-Consistencyはサンプル予算を最大7.9倍に削減し,平均精度は0.1%以下であった。
論文 参考訳(メタデータ) (2023-05-19T17:49:25Z) - How Does Generative Retrieval Scale to Millions of Passages? [68.98628807288972]
各種コーパス尺度における生成的検索手法の実証的研究を行った。
我々は8.8Mパスのコーパスで数百万のパスに生成検索をスケールし、モデルサイズを最大11Bパラメータまで評価する。
生成的検索は、小さなコーパス上の最先端のデュアルエンコーダと競合するが、数百万のパスへのスケーリングは依然として重要で未解決の課題である。
論文 参考訳(メタデータ) (2023-05-19T17:33:38Z) - Efficient Nearest Neighbor Search for Cross-Encoder Models using Matrix
Factorization [60.91600465922932]
本稿では,クロスエンコーダのみに頼って,二重エンコーダによる検索を回避する手法を提案する。
我々のアプローチは、現在の広く使われている方法よりも優れたテスト時間リコール-vs計算コストトレードオフを提供する。
論文 参考訳(メタデータ) (2022-10-23T00:32:04Z) - Autoencoder Based Iterative Modeling and Multivariate Time-Series
Subsequence Clustering Algorithm [0.0]
本稿では、過渡時系列データ(MTSD)における変化点の検出と対応する部分列の同定のためのアルゴリズムを提案する。
我々は、リカレントニューラルネットワーク(RNN)ベースのオートエンコーダ(AE)を用いて、入ってくるデータに基づいて反復的に訓練する。
同定されたサブシーケンスのモデルを保存し、繰り返しサブシーケンスの認識と高速オフラインクラスタリングに使用する。
論文 参考訳(メタデータ) (2022-09-09T09:59:56Z) - Multi-Label Learning to Rank through Multi-Objective Optimization [9.099663022952496]
近年,情報検索システムではランク付け技法の学習が至るところで行われている。
あいまいさを解決するためには、多くの関連基準を用いてモデルを訓練することが望ましい。
本稿では,ラベルからの情報を様々な方法で組み合わせて,目標間のトレードオフを特徴付ける,汎用的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-07T03:02:11Z) - Fast Sparse Classification for Generalized Linear and Additive Models [18.19521929966386]
スパース一般化線形および加法モデルに対する高速分類手法を提案する。
これらの技術は、非常に相関性の高い特徴が存在する場合でも、何千もの特徴と何千もの観察を数分で処理することができる。
論文 参考訳(メタデータ) (2022-02-23T10:07:42Z) - Enabling Efficiency-Precision Trade-offs for Label Trees in Extreme
Classification [43.840626501982314]
Extreme Multi-label Classification (XMC) は、非常に大きなラベルセットから関連するラベルのサブセットでデータポイントをタグ付けできるモデルを学ぶことを目的としている。
本稿では,両者の利点を交換する中間操作点を構築するための,効率的な情報理論に基づくアルゴリズムを提案する。
提案手法は,Parabelと同じ精度を維持しながら,予測レイテンシのプロキシを最大28%削減することができる。
論文 参考訳(メタデータ) (2021-06-01T19:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。