論文の概要: Continuous Prompt Tuning Based Textual Entailment Model for E-commerce
Entity Typing
- arxiv url: http://arxiv.org/abs/2211.02483v1
- Date: Fri, 4 Nov 2022 14:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 16:34:22.624593
- Title: Continuous Prompt Tuning Based Textual Entailment Model for E-commerce
Entity Typing
- Title(参考訳): 連続プロンプトチューニングに基づくEコマースエンティティタイピングのためのテキストエンターメントモデル
- Authors: Yibo Wang, Congying Xia, Guan Wang, Philip Yu
- Abstract要約: 電子商取引における急速な活動は、一般的なエンティティタイピングによって解決が難しい新しいエンティティの急速な台頭につながっている。
本稿では,eコマースエンティティタイピングのための連続的なプロンプトチューニングに基づく仮説と融合埋め込みを用いたテキストエンテーメントモデルを提案する。
提案モデルでは,ベースラインのBERTエンティティタイピングモデルと比較して平均F1スコアが約2%向上することを示した。
- 参考スコア(独自算出の注目度): 12.77583836715184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explosion of e-commerce has caused the need for processing and analysis
of product titles, like entity typing in product titles. However, the rapid
activity in e-commerce has led to the rapid emergence of new entities, which is
difficult to be solved by general entity typing. Besides, product titles in
e-commerce have very different language styles from text data in general
domain. In order to handle new entities in product titles and address the
special language styles problem of product titles in e-commerce domain, we
propose our textual entailment model with continuous prompt tuning based
hypotheses and fusion embeddings for e-commerce entity typing. First, we
reformulate the entity typing task into a textual entailment problem to handle
new entities that are not present during training. Second, we design a model to
automatically generate textual entailment hypotheses using a continuous prompt
tuning method, which can generate better textual entailment hypotheses without
manual design. Third, we utilize the fusion embeddings of BERT embedding and
CharacterBERT embedding with a two-layer MLP classifier to solve the problem
that the language styles of product titles in e-commerce are different from
that of general domain. To analyze the effect of each contribution, we compare
the performance of entity typing and textual entailment model, and conduct
ablation studies on continuous prompt tuning and fusion embeddings. We also
evaluate the impact of different prompt template initialization for the
continuous prompt tuning. We show our proposed model improves the average F1
score by around 2% compared to the baseline BERT entity typing model.
- Abstract(参考訳): 電子商取引の爆発は、製品タイトルのエンティティタイピングのような製品タイトルの処理と分析の必要性を引き起こしている。
しかし、電子商取引における急速な活動は、一般的なエンティティタイピングによって解決が難しい新しいエンティティの出現に繋がった。
さらに、eコマースにおける製品タイトルは、一般的なドメインのテキストデータとは全く異なる言語スタイルを持つ。
本稿では,eコマースドメインにおける製品タイトルの新しいエンティティの扱いと,製品タイトルの特殊言語スタイルの問題に対処するため,eコマースエンティティタイピングのための連続的なプロンプトチューニングに基づく仮説と融合埋め込みを用いたテキストエンターメントモデルを提案する。
まず、訓練中に存在しない新しいエンティティを扱うために、エンティティ型付けタスクをテキスト型付け問題に再構成する。
第2に、連続的なプロンプト・チューニング手法を用いて、手動設計なしでより優れたテキスト・エンターテイメント仮説を生成可能なテキスト・エンターテイメント仮説を自動生成するモデルを設計する。
第3に,BERT 埋め込みと CharacterBERT 埋め込みを2層 MLP 分類器で組み合わせることで,eコマースにおける製品タイトルの言語スタイルが一般ドメインと異なるという問題を解決する。
それぞれの貢献の効果を分析するために,エンティティ型付けと文内包モデルの性能を比較し,連続的なプロンプトチューニングと融合埋め込みに関するアブレーション研究を行う。
また、連続的プロンプトチューニングにおける異なるプロンプトテンプレート初期化の影響を評価する。
提案モデルでは,ベースラインのBERTエンティティタイピングモデルと比較して平均F1スコアが約2%向上することを示した。
関連論文リスト
- A Multimodal In-Context Tuning Approach for E-Commerce Product
Description Generation [47.70824723223262]
マーケティングキーワードを付加した画像から製品記述を生成するための新しい設定を提案する。
本稿では, ModICT という, シンプルで効果的なマルチモーダル・インコンテキスト・チューニング手法を提案する。
実験の結果、ModICTは従来の方法と比較して精度(ルージュ-Lでは最大3.3%)と多様性(D-5では最大9.4%)を著しく改善することが示された。
論文 参考訳(メタデータ) (2024-02-21T07:38:29Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - JPAVE: A Generation and Classification-based Model for Joint Product
Attribute Prediction and Value Extraction [59.94977231327573]
JPAVEと呼ばれる値生成/分類と属性予測を備えたマルチタスク学習モデルを提案する。
我々のモデルの2つの変種は、オープンワールドとクローズドワールドのシナリオのために設計されている。
公開データセットにおける実験結果は,強いベースラインと比較して,我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:36:16Z) - SPM: Structured Pretraining and Matching Architectures for Relevance
Modeling in Meituan Search [12.244685291395093]
eコマース検索では、クエリとドキュメントの関連性は、ユーザエクスペリエンスを満たす上で必須の要件である。
本稿では,リッチな構造化文書に適合する2段階の事前学習およびマッチングアーキテクチャを提案する。
このモデルは、すでにオンラインで展開されており、Meituanの検索トラフィックを1年以上にわたって提供している。
論文 参考訳(メタデータ) (2023-08-15T11:45:34Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - Consistent Text Categorization using Data Augmentation in e-Commerce [1.558017967663767]
一貫性のあるテキスト分類のための新しいフレームワークを提案する。
私たちの目標は、本番レベルのパフォーマンスを維持しながら、モデルの一貫性を改善することです。
論文 参考訳(メタデータ) (2023-05-09T12:47:28Z) - Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation [36.541309948222306]
各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
そこで本稿では,(1) エンティティ型ラベル解釈モジュールが,少数ショットインスタンスとラベル階層を併用することで,タイプラベルと語彙の関連付けを自動的に学習し,(2) 型ベースのコンテキスト化インスタンス生成器は,与えられたインスタンスに基づいて新しいインスタンスを生成して,より一般化のためにトレーニングセットを拡大する,という,2つのモジュールからなる新しいFETフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-28T04:05:40Z) - DSGPT: Domain-Specific Generative Pre-Training of Transformers for Text
Generation in E-commerce Title and Review Summarization [14.414693156937782]
テキスト生成のための新しいドメイン固有生成事前学習法(DS-GPT)を提案する。
電子商取引モバイルディスプレイにおける製品タイトルと要約問題に応用する。
論文 参考訳(メタデータ) (2021-12-15T19:02:49Z) - Automatic Validation of Textual Attribute Values in E-commerce Catalog
by Learning with Limited Labeled Data [61.789797281676606]
そこで我々はMetaBridgeと呼ばれる新しいメタ学習潜伏変数アプローチを提案する。
限られたラベル付きデータを持つカテゴリのサブセットから、転送可能な知識を学ぶことができる。
ラベルのないデータで、目に見えないカテゴリの不確実性を捉えることができる。
論文 参考訳(メタデータ) (2020-06-15T21:31:05Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。