論文の概要: An End-to-End Solution for Named Entity Recognition in eCommerce Search
- arxiv url: http://arxiv.org/abs/2012.07553v1
- Date: Fri, 11 Dec 2020 04:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:13:00.060540
- Title: An End-to-End Solution for Named Entity Recognition in eCommerce Search
- Title(参考訳): eコマース検索における名前付きエンティティ認識のためのエンドツーエンドソリューション
- Authors: Xiang Cheng, Mitchell Bowden, Bhushan Ramesh Bhange, Priyanka Goyal,
Thomas Packer, Faizan Javed
- Abstract要約: 名前付きエンティティ認識(NER)は、現代の検索クエリ理解における重要なステップである。
近年の研究では、深層学習手法を用いた共有ベンチマークNERタスクの有望な結果が示されている。
本稿では,これらの課題を解決するためのエンドツーエンドソリューションを示す。
- 参考スコア(独自算出の注目度): 7.240345005177374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named entity recognition (NER) is a critical step in modern search query
understanding. In the domain of eCommerce, identifying the key entities, such
as brand and product type, can help a search engine retrieve relevant products
and therefore offer an engaging shopping experience. Recent research shows
promising results on shared benchmark NER tasks using deep learning methods,
but there are still unique challenges in the industry regarding domain
knowledge, training data, and model production. This paper demonstrates an
end-to-end solution to address these challenges. The core of our solution is a
novel model training framework "TripleLearn" which iteratively learns from
three separate training datasets, instead of one training set as is
traditionally done. Using this approach, the best model lifts the F1 score from
69.5 to 93.3 on the holdout test data. In our offline experiments, TripleLearn
improved the model performance compared to traditional training approaches
which use a single set of training data. Moreover, in the online A/B test, we
see significant improvements in user engagement and revenue conversion. The
model has been live on homedepot.com for more than 9 months, boosting search
conversions and revenue. Beyond our application, this TripleLearn framework, as
well as the end-to-end process, is model-independent and problem-independent,
so it can be generalized to more industrial applications, especially to the
eCommerce industry which has similar data foundations and problems.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は、現代の検索クエリ理解における重要なステップである。
eコマースの分野では、ブランドや製品タイプといった重要なエンティティを特定することで、検索エンジンが関連する商品を検索し、魅力的なショッピング体験を提供することができる。
最近の研究では、ディープラーニングメソッドを用いたベンチマークnerタスクの共有に有望な結果を示しているが、業界では、ドメイン知識、トレーニングデータ、モデル生成に関するユニークな課題が残っている。
本稿では,これらの課題を解決するためのエンドツーエンドソリューションを示す。
私たちのソリューションの核心は、従来のように1つのトレーニングセットではなく、3つのトレーニングデータセットから反復的に学習する、新しいモデルトレーニングフレームワーク"triplelearn"です。
このアプローチを用いて、最良のモデルは、ホールドアウトテストデータにおいてF1スコアを69.5から93.3に引き上げる。
オフライン実験では、TripleLearnは、単一のトレーニングデータを使用する従来のトレーニングアプローチと比較して、モデルパフォーマンスを改善しました。
さらに、オンラインA/Bテストでは、ユーザエンゲージメントと収益変換に大きな改善が見られます。
このモデルはHomedepot.comで9ヶ月以上ライブされ、検索の変換と収益が増加した。
私たちのアプリケーション以外にも、このTripleLearnフレームワークは、エンドツーエンドのプロセスと同様に、モデル非依存で問題非依存なので、より多くの産業アプリケーション、特に同様のデータ基盤と問題を持つeコマース業界に一般化することができます。
関連論文リスト
- ConDa: Fast Federated Unlearning with Contribution Dampening [46.074452659791575]
ConDaは、各クライアントのグローバルモデルに影響を与えるパラメータを追跡することによって、効率的なアンラーニングを実行するフレームワークである。
複数のデータセットで実験を行い、ConDaがクライアントのデータを忘れるのが効果的であることを実証する。
論文 参考訳(メタデータ) (2024-10-05T12:45:35Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - ZhichunRoad at Amazon KDD Cup 2022: MultiTask Pre-Training for
E-Commerce Product Search [4.220439000486713]
検索結果の質を向上させるために,頑健な多言語モデルを提案する。
事前学習の段階では、mlmタスク、分類タスク、コントラスト学習タスクを採用する。
微調整段階では、自信ある学習、指数的移動平均法(EMA)、対人訓練(FGM)、正規化ドロップアウト戦略(R-Drop)を用いる。
論文 参考訳(メタデータ) (2023-01-31T07:31:34Z) - Commonsense Knowledge Salience Evaluation with a Benchmark Dataset in
E-commerce [42.726755541409545]
電子商取引においては、コモンセンス・ナレッジ(CSK)のサリエンスは、製品検索やレコメンデーションといった幅広い応用に有用である。
しかし、既存のCSKコレクションの多くは、信頼スコアのみによってランク付けされており、人間の視点ではどのコレクションが健全であるかに関する情報はない。
本研究では,CSK三重項が与えられた場合,三重項が正当かどうかを学習するためには,教師付きサリエンス評価の課題を定義する。
論文 参考訳(メタデータ) (2022-05-22T15:01:23Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z) - Ex-Model: Continual Learning from a Stream of Trained Models [12.27992745065497]
連続的な学習システムは、訓練されたモデルの形式で圧縮された情報の可用性を活用するべきであると論じる。
エージェントが生データの代わりに以前に訓練されたモデルのシーケンスから学習する「Ex-Model Continual Learning」(Ex-Model Continual Learning)という新しいパラダイムを導入し、形式化する。
論文 参考訳(メタデータ) (2021-12-13T09:46:16Z) - What Stops Learning-based 3D Registration from Working in the Real
World? [53.68326201131434]
この研究は、3Dポイントのクラウド登録失敗の原因を特定し、その原因を分析し、解決策を提案する。
最終的に、これは最も実践的な3D登録ネットワーク(BPNet)に変換される。
我々のモデルは微調整をせずに実データに一般化し、商用センサで得られた見えない物体の点雲上で最大67%の精度に達する。
論文 参考訳(メタデータ) (2021-11-19T19:24:27Z) - Imitate TheWorld: A Search Engine Simulation Platform [13.011052642314421]
生成されたページに対して、よく訓練された識別器によるフィードバックを適切に提供できるシミュレーション検索エンジンAESimを構築した。
実世界とのつながりを失う従来のシミュレーションプラットフォームとは異なり、われわれのデータは検索の実際のデータに依存している。
我々の実験は、AESimが古典的なランキングの指標よりも、ランキングモデルのオンラインパフォーマンスをよりよく反映できることを示した。
論文 参考訳(メタデータ) (2021-07-16T03:55:33Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。