論文の概要: An Interpretable Ensemble of Graph and Language Models for Improving
Search Relevance in E-Commerce
- arxiv url: http://arxiv.org/abs/2403.00923v1
- Date: Fri, 1 Mar 2024 19:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 15:56:31.338977
- Title: An Interpretable Ensemble of Graph and Language Models for Improving
Search Relevance in E-Commerce
- Title(参考訳): Eコマースにおける検索関連性向上のためのグラフと言語モデルの解釈可能なアンサンブル
- Authors: Nurendra Choudhary, Edward W Huang, Karthik Subbian, Chandan K. Reddy
- Abstract要約: プラグアンドプレイグラフLanguage Model (PP-GLAM) を提案する。
このアプローチでは、均一なデータ処理パイプラインを備えたモジュラーフレームワークを使用します。
PP-GLAMは,実世界のマルチリンガル,マルチリージョンのeコマースデータセット上で,最先端のベースラインとプロプライエタリなモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 22.449320058423886
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The problem of search relevance in the E-commerce domain is a challenging one
since it involves understanding the intent of a user's short nuanced query and
matching it with the appropriate products in the catalog. This problem has
traditionally been addressed using language models (LMs) and graph neural
networks (GNNs) to capture semantic and inter-product behavior signals,
respectively. However, the rapid development of new architectures has created a
gap between research and the practical adoption of these techniques. Evaluating
the generalizability of these models for deployment requires extensive
experimentation on complex, real-world datasets, which can be non-trivial and
expensive. Furthermore, such models often operate on latent space
representations that are incomprehensible to humans, making it difficult to
evaluate and compare the effectiveness of different models. This lack of
interpretability hinders the development and adoption of new techniques in the
field. To bridge this gap, we propose Plug and Play Graph LAnguage Model
(PP-GLAM), an explainable ensemble of plug and play models. Our approach uses a
modular framework with uniform data processing pipelines. It employs additive
explanation metrics to independently decide whether to include (i) language
model candidates, (ii) GNN model candidates, and (iii) inter-product behavioral
signals. For the task of search relevance, we show that PP-GLAM outperforms
several state-of-the-art baselines as well as a proprietary model on real-world
multilingual, multi-regional e-commerce datasets. To promote better model
comprehensibility and adoption, we also provide an analysis of the
explainability and computational complexity of our model. We also provide the
public codebase and provide a deployment strategy for practical implementation.
- Abstract(参考訳): 電子商取引領域における検索関連性の問題は、ユーザの短いニュアンスクエリの意図を理解し、カタログ内の適切な製品とマッチングすることに関わるため、難しい問題である。
この問題は伝統的に言語モデル(LM)とグラフニューラルネットワーク(GNN)を使用して、それぞれ意味的行動信号と製品間行動信号をキャプチャすることで解決されてきた。
しかし、新しいアーキテクチャの急速な発展は、研究とこれらの技術の実践的採用の間にギャップを生んでいる。
これらのモデルのデプロイに対する一般化性を評価するには、複雑で現実的なデータセットに対する広範な実験が必要である。
さらに、そのようなモデルはしばしば人間には理解できない潜在空間表現で動作し、異なるモデルの有効性を評価し比較することは困難である。
この解釈性の欠如は、この分野における新しい技術の開発と採用を妨げる。
このギャップを埋めるために,プラグ・アンド・プレイ・グラフ言語モデル(pp-glam)を提案する。
このアプローチでは、均一なデータ処理パイプラインを備えたモジュラーフレームワークを使用する。
追加的な説明指標を使用して、含めるかどうかを独立に決定する。
(i)言語モデル候補
(二)GNNモデル候補、及び
(iii)製品間行動信号。
検索の関連性の課題として,pp-glamが実世界の多言語多地域eコマースデータセットのプロプライエタリモデルと同様に,最先端のベースライン数を上回っていることを示す。
モデル理解性の向上と導入を促進するため,モデルの説明可能性や計算複雑性の解析も行う。
また、公開コードベースを提供し、実用的な実装のためのデプロイメント戦略を提供します。
関連論文リスト
- Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Improving the Capabilities of Large Language Model Based Marketing Analytics Copilots With Semantic Search And Fine-Tuning [0.9787137564521711]
本稿では, 意味探索, プロンプトエンジニアリング, 微調整を組み合わせることで, LLMのタスクを正確に実行する能力を大幅に向上させることができることを示す。
GPT-4のようなプロプライエタリなモデルと、Llama-2-70bのようなオープンソースのモデル、および様々な埋め込み方法を比較します。
論文 参考訳(メタデータ) (2024-04-16T03:39:16Z) - GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding [39.67113788660731]
グラフ対応LAnguage Models (GLaM) を開発するためのフレームワークを紹介する。
特定のグラフに基づく知識でモデルを構築することは、構造に基づく推論のためのモデルの能力を拡張することを実証する。
論文 参考訳(メタデータ) (2024-02-09T19:53:29Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - Enhancing Knowledge Graph Construction Using Large Language Models [0.0]
本稿では,ChatGPTのような基礎LPMの現在の進歩を,REBELのような特定の事前学習モデルと比較し,結合実体と関係抽出について述べる。
生テキストから知識グラフを自動生成するためのパイプラインを作成し,高度なLCMモデルを用いることで,非構造化テキストからこれらのグラフを作成するプロセスの精度が向上することを示した。
論文 参考訳(メタデータ) (2023-05-08T12:53:06Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - ARM-Net: Adaptive Relation Modeling Network for Structured Data [29.94433633729326]
ARM-Netは、構造化データに適した適応関係モデリングネットワークであり、リレーショナルデータのためのARM-Netに基づく軽量フレームワークARMORである。
ARM-Netは既存のモデルより一貫して優れており、データセットに対してより解釈可能な予測を提供する。
論文 参考訳(メタデータ) (2021-07-05T07:37:24Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。