論文の概要: Product Title Generation for Conversational Systems using BERT
- arxiv url: http://arxiv.org/abs/2007.11768v1
- Date: Thu, 23 Jul 2020 03:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:44:53.860270
- Title: Product Title Generation for Conversational Systems using BERT
- Title(参考訳): BERTを用いた対話システムのための製品タイトル生成
- Authors: Mansi Ranjit Mane, Shashank Kedia, Aditya Mantha, Stephen Guo, Kannan
Achan
- Abstract要約: 入力されたWebタイトルから、短時間で自然な音声言語タイトルを生成するためのシーケンス・ツー・シーケンス手法を提案する。
BERTの要約は、実世界の業界データセットでの実験において、同等のベースラインモデルを上回っている。
- 参考スコア(独自算出の注目度): 9.52564724798302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through recent advancements in speech technology and introduction of smart
devices, such as Amazon Alexa and Google Home, increasing number of users are
interacting with applications through voice. E-commerce companies typically
display short product titles on their webpages, either human-curated or
algorithmically generated, when brevity is required, but these titles are
dissimilar from natural spoken language. For example, "Lucky Charms Gluten Free
Break-fast Cereal, 20.5 oz a box Lucky Charms Gluten Free" is acceptable to
display on a webpage, but "a 20.5 ounce box of lucky charms gluten free cereal"
is easier to comprehend over a conversational system. As compared to display
devices, where images and detailed product information can be presented to
users, short titles for products are necessary when interfacing with voice
assistants. We propose a sequence-to-sequence approach using BERT to generate
short, natural, spoken language titles from input web titles. Our extensive
experiments on a real-world industry dataset and human evaluation of model
outputs, demonstrate that BERT summarization outperforms comparable baseline
models.
- Abstract(参考訳): 最近の音声技術の進歩とAmazon AlexaやGoogle Homeのようなスマートデバイスの導入により、音声を介してアプリケーションと対話するユーザが増えています。
電子商取引会社は通常、簡潔さが必要な場合、人造またはアルゴリズムによって生成された短い製品タイトルをWebページに表示するが、これらのタイトルは自然言語とは異なる。
例えば、"lucky charms gluten free break-fast cereal, 20.5 oz a box lucky charms gluten free" はウェブページで表示することができるが、"20.5オンスの運のチャームの箱gluten free cereal" は会話システム上で理解しやすい。
ユーザに対して画像や詳細な製品情報を提示できるディスプレイデバイスと比較して,音声アシスタントと対話する際には,製品の短いタイトルが必要である。
本稿では,入力 web タイトルから短い自然言語タイトルを生成するための bert を用いたシーケンシャル・ツー・シーケンス手法を提案する。
実世界の産業データセットとモデルアウトプットの人的評価に関する広範な実験により、BERTの要約が同等のベースラインモデルより優れていることを示した。
関連論文リスト
- Learning to Ask: Conversational Product Search via Representation Learning [34.689904564411506]
本研究では,対話型商品検索モデルであるConvPSを提案する。
このモデルはまず、ユーザ、クエリ、アイテム、会話のセマンティック表現を共同で学習するように訓練されている。
提案したConvPSモデルは,ユーザ,クエリ,アイテム,会話の表現学習を統合された生成フレームワークに統合することができる。
論文 参考訳(メタデータ) (2024-11-18T14:05:43Z) - SpeechPrompt: Prompting Speech Language Models for Speech Processing Tasks [94.10497337235083]
我々はまず,音声処理分野における音声 LM の促進の可能性を探る。
音声処理タスクを音声単位生成タスクに再構成する。
提案手法は, 強い微調整法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2024-08-23T13:00:10Z) - DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Multimodal Prompt Learning for Product Title Generation with Extremely
Limited Labels [66.54691023795097]
本稿では,ラベルが限定された新商品のタイトルを生成するためのプロンプトベースアプローチ,すなわちマルチモーダル・プロンプト学習フレームワークを提案する。
我々は、新しい製品の対応する特性と書体を維持するために、異なるモダリティから多モーダルなプロンプトのセットを構築する。
トレーニング用ラベル付きデータの完全化により,本手法は最先端の結果が得られる。
論文 参考訳(メタデータ) (2023-07-05T00:40:40Z) - Product Information Extraction using ChatGPT [69.12244027050454]
本稿では,製品記述から属性/値対を抽出するChatGPTの可能性について検討する。
以上の結果から,ChatGPTは事前学習した言語モデルに類似した性能を達成できるが,微調整を行うにはトレーニングデータや計算処理がはるかに少ないことが示唆された。
論文 参考訳(メタデータ) (2023-06-23T09:30:01Z) - Plug-and-Play Multilingual Few-shot Spoken Words Recognition [3.591566487849146]
マルチ言語・プラグイン・アンド・プレイ型キーワードスポッティングシステムであるPLiXを提案する。
私たちの数秒のディープモデルは、20言語にまたがる数百万の1秒のオーディオクリップで学習されています。
PLiX は,1つのサポート例に限らず,新規な音声単語に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-05-03T18:58:14Z) - Talk the Walk: Synthetic Data Generation for Conversational Music
Recommendation [62.019437228000776]
本稿では,広く利用可能なアイテムコレクションにおいて,符号化された専門知識を活用することで,現実的な高品質な会話データを生成するTalkWalkを提案する。
人間の収集したデータセットで100万以上の多様な会話を生成します。
論文 参考訳(メタデータ) (2023-01-27T01:54:16Z) - Generating Rich Product Descriptions for Conversational E-commerce
Systems [6.594755784216671]
通常、eコマース企業は短い商品のタイトルをウェブページに表示している。
本稿では,eコマース製品記述コーパスへのBERT埋め込みをさらに事前学習することで,シーケンス・ツー・シーケンスのアプローチであるeBERTを提案する。
実世界の産業データセットと,モデル出力の人間による評価実験により,eBERTの要約が同等のベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-11-30T11:22:43Z) - A Sequence to Sequence Model for Extracting Multiple Product Name
Entities from Dialog [2.9299798085291195]
Amazon Alexaのような既存の音声注文システムは、単一の製品名エンティティのみをキャプチャできる。
本稿では,最大10項目を発話で認識するエンティティトランスフォーマー(ET)ニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-28T01:54:02Z) - E-BERT: A Phrase and Product Knowledge Enhanced Language Model for
E-commerce [63.333860695727424]
電子商取引タスクは、ドメインフレーズの正確な理解を必要とするが、そのようなきめ細かいフレーズレベルの知識は、BERTの訓練目的によって明示的にモデル化されていない。
この問題に対処するため、我々はE-BERTという統合事前学習フレームワークを提案する。
具体的には、フレーズレベルの知識を保存するために、適応的ハイブリッドマスキングを導入し、モデルが予備単語の知識から複雑なフレーズの学習に適応的に切り替えることを可能にする。
製品レベルの知識を活用するために,E-BERT を訓練し,製品に付随する隣人を認知的なクロスアテンション層で予測するNighbor Product Restruction を導入する。
論文 参考訳(メタデータ) (2020-09-07T00:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。