論文の概要: Block-SCL: Blocking Matters for Supervised Contrastive Learning in
Product Matching
- arxiv url: http://arxiv.org/abs/2207.02008v1
- Date: Tue, 5 Jul 2022 12:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 21:01:51.460454
- Title: Block-SCL: Blocking Matters for Supervised Contrastive Learning in
Product Matching
- Title(参考訳): Block-SCL: プロダクトマッチングにおける教師付きコントラスト学習のブロック事項
- Authors: Mario Almagro, David Jim\'enez, Diego Ortego, Emilio Almaz\'an and Eva
Mart\'inez
- Abstract要約: 我々は、ブロック出力を使ってSCL(Supervised Contrastive Learning)を最大限活用するBlock-SCLを提案する。
Block-SCLはブロッキング段階で得られた強陰性サンプルを使用して、リッチなバッチを構築する。
いくつかの公開データセットの実験結果は、Block-SCLが最先端の結果を達成していることを示している。
- 参考スコア(独自算出の注目度): 3.1887708029149775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Product matching is a fundamental step for the global understanding of
consumer behavior in e-commerce. In practice, product matching refers to the
task of deciding if two product offers from different data sources (e.g.
retailers) represent the same product. Standard pipelines use a previous stage
called blocking, where for a given product offer a set of potential matching
candidates are retrieved based on similar characteristics (e.g. same brand,
category, flavor, etc.). From these similar product candidates, those that are
not a match can be considered hard negatives. We present Block-SCL, a strategy
that uses the blocking output to make the most of Supervised Contrastive
Learning (SCL). Concretely, Block-SCL builds enriched batches using the
hard-negatives samples obtained in the blocking stage. These batches provide a
strong training signal leading the model to learn more meaningful sentence
embeddings for product matching. Experimental results in several public
datasets demonstrate that Block-SCL achieves state-of-the-art results despite
only using short product titles as input, no data augmentation, and a lighter
transformer backbone than competing methods.
- Abstract(参考訳): 製品マッチングは、eコマースにおける消費者行動のグローバル理解の基本的なステップである。
実際には、製品マッチングとは、異なるデータソース(例えば小売業者)から2つの製品が同じ製品を表すかどうかを決定するタスクを指す。
標準的なパイプラインはブロッキングと呼ばれる以前のステージを使用しており、ある製品に対して同様の特性(ブランド、カテゴリ、フレーバーなど)に基づいて、潜在的なマッチング候補のセットが検索される。
このような類似した製品候補から、一致しないものはハードネガティブと見なすことができる。
本稿では,ブロック出力を用いたSCL(Supervised Contrastive Learning)の活用戦略であるBlock-SCLを提案する。
具体的には、Block-SCLはブロック段階で得られた強陰性サンプルを使用して、リッチなバッチを構築する。
これらのバッチは、モデルにプロダクトマッチングのためのより意味のある文埋め込みを学ぶための強力なトレーニングシグナルを提供する。
いくつかの公開データセットの実験結果は、短い製品タイトルを入力として使用するだけで、データ拡張がなく、競合するメソッドよりも軽いトランスフォーマーバックボーンを使用するにもかかわらず、Block-SCLが最先端の結果を達成することを示した。
関連論文リスト
- Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Text-Based Product Matching -- Semi-Supervised Clustering Approach [9.748519919202986]
本稿では,半教師付きクラスタリング手法を用いた製品マッチングの新しい哲学を提案する。
実世界のデータセット上でIDECアルゴリズムを実験することにより,本手法の特性について検討する。
論文 参考訳(メタデータ) (2024-02-01T18:52:26Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - Adversarial Contrastive Learning via Asymmetric InfoNCE [64.42740292752069]
非対称なInfoNCEの目的と対比した場合,非対称なサンプルを不等に扱うことを提案する。
非対称的な方法では、CLと対向学習の相反する目的の悪影響を効果的に軽減することができる。
実験の結果,提案手法は既存CL法より一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2022-07-18T04:14:36Z) - Selective-Supervised Contrastive Learning with Noisy Labels [73.81900964991092]
本稿では,頑健な表現を学習し,ノイズラベルを処理するために,選択的教師付きコントラスト学習(Sel-CL)を提案する。
具体的には、Sel-CLは、表現学習に強力な教師付きコントラスト学習(Sup-CL)を拡張しているが、ノイズラベルがある場合には劣化する。
セル-CLは、ノイズラベルによって構築されたノイズペアが表現学習を誤解させるという、Sup-CLの問題の直接的な原因に取り組む。
論文 参考訳(メタデータ) (2022-03-08T16:12:08Z) - Intent-based Product Collections for E-commerce using Pretrained
Language Models [8.847005669899703]
我々は、意図に基づく製品コレクションを作成するために、Webスケール製品のテキスト属性を利用する事前学習言語モデル(PLM)を使用している。
本モデルは,オフライン評価において,意図に基づく製品マッチングのための検索ベースラインモデルよりも大幅に優れている。
電子商取引プラットフォーム上でのオンライン実験結果から, PLM法により, CTR, CVR, オーダー多様性が向上した製品コレクションを, 専門家によるコレクションと比較して構築できることが示唆された。
論文 参考訳(メタデータ) (2021-10-15T17:52:42Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。