論文の概要: Building a Few-Shot Cross-Domain Multilingual NLU Model for Customer Care
- arxiv url: http://arxiv.org/abs/2506.04389v1
- Date: Wed, 04 Jun 2025 19:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.39152
- Title: Building a Few-Shot Cross-Domain Multilingual NLU Model for Customer Care
- Title(参考訳): 顧客ケアのためのクロスドメイン多言語NLUモデルの構築
- Authors: Saurabh Kumar, Sourav Bansal, Neeraj Agrawal, Priyanka Bhatt,
- Abstract要約: 注釈付きデータに微調整された多言語BERTのようなSOTA事前訓練されたモデルは、顧客ケアに関連する下流タスクにおいて優れたパフォーマンスを示している。
本稿では,いくつかのラベル付きサンプルを用いて,最先端のドメイン固有モデルを他のドメインに拡張する組込みモデルアーキテクチャを提案する。
カナダとメキシコのeコマース Customer Careデータセットを数ショットで検出する実験では、精度が20~23%向上した。
- 参考スコア(独自算出の注目度): 1.0129089187146396
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Customer care is an essential pillar of the e-commerce shopping experience with companies spending millions of dollars each year, employing automation and human agents, across geographies (like US, Canada, Mexico, Chile), channels (like Chat, Interactive Voice Response (IVR)), and languages (like English, Spanish). SOTA pre-trained models like multilingual-BERT, fine-tuned on annotated data have shown good performance in downstream tasks relevant to Customer Care. However, model performance is largely subject to the availability of sufficient annotated domain-specific data. Cross-domain availability of data remains a bottleneck, thus building an intent classifier that generalizes across domains (defined by channel, geography, and language) with only a few annotations, is of great practical value. In this paper, we propose an embedder-cum-classifier model architecture which extends state-of-the-art domain-specific models to other domains with only a few labeled samples. We adopt a supervised fine-tuning approach with isotropic regularizers to train a domain-specific sentence embedder and a multilingual knowledge distillation strategy to generalize this embedder across multiple domains. The trained embedder, further augmented with a simple linear classifier can be deployed for new domains. Experiments on Canada and Mexico e-commerce Customer Care dataset with few-shot intent detection show an increase in accuracy by 20-23% against the existing state-of-the-art pre-trained models.
- Abstract(参考訳): 米国、カナダ、メキシコ、チリなど)、チャンネル(Chat、Interactive Voice Response(IVR)など)、言語(英語、スペイン語など)にまたがって、自動化と人的エージェントを雇用している企業にとって、顧客ケアは、eコマースのショッピング体験の重要な柱である。
注釈付きデータに微調整された多言語BERTのようなSOTA事前訓練されたモデルは、顧客ケアに関連する下流タスクにおいて優れたパフォーマンスを示している。
しかし、モデルの性能は、十分な注釈付きドメイン固有データの入手に大きく左右される。
ドメイン間のデータの可用性は依然としてボトルネックであり、いくつかのアノテーションでドメイン全体(チャネル、地理、言語によって定義される)を一般化するインテント分類器を構築することは、非常に実用的な価値である。
本稿では,いくつかのラベル付きサンプルを用いて,最先端のドメイン固有モデルを他のドメインに拡張する組込みモデルアーキテクチャを提案する。
我々は、ドメイン固有の文埋め込みを訓練するために等方正則化器を用いた教師付き微調整手法と、複数のドメインにまたがるこの埋め込みを一般化するための多言語知識蒸留戦略を採用する。
単純な線形分類器でさらに強化されたトレーニング済み組込み器は、新しいドメインにデプロイすることができる。
カナダとメキシコのeコマース Customer Careデータセットを数ショットで検出した実験では、既存の最先端のトレーニング済みモデルに対して、精度が20~23%向上している。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian [75.94354349994576]
本稿では,より小型のドメイン固有エンコーダ LM と,特殊なコンテキストにおける性能向上手法の併用の可能性について検討する。
本研究は, イタリアの官僚的・法的言語に焦点をあて, 汎用モデルと事前学習型エンコーダのみのモデルの両方を実験する。
その結果, 事前学習したモデルでは, 一般知識の頑健性が低下する可能性があるが, ドメイン固有のタスクに対して, ゼロショット設定においても, より優れた適応性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-30T08:50:16Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - CLIN-X: pre-trained language models and a study on cross-task transfer
for concept extraction in the clinical domain [22.846469609263416]
事前学習したCLIN-X(Clinical XLM-R)言語モデルを導入し、CLIN-Xが他の事前学習したトランスフォーマーモデルよりも優れていることを示す。
本研究は,250のラベル付き文が利用可能である場合に,47F1ポイントまで改善された注釈付きデータがないにもかかわらず,安定したモデル性能を示す。
本研究は,非標準領域における概念抽出におけるCLIN-Xとしての特殊言語モデルの重要性を強調した。
論文 参考訳(メタデータ) (2021-12-16T10:07:39Z) - MDAPT: Multilingual Domain Adaptive Pretraining in a Single Model [17.566140528671134]
一つの多言語ドメイン固有モデルが一般的な多言語モデルより優れていることを示す。
本稿では,言語モデルがドメイン固有かつ多言語的になるような事前学習コーパスを構成するための様々な手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:26Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Deep Contextual Embeddings for Address Classification in E-commerce [0.03222802562733786]
インドのような発展途上国のEコマース顧客は、発送先を入力している間、固定フォーマットに従わない傾向にある。
アドレスの言語を理解することは必須であり、出荷を遅延なくルーティングできる。
自然言語処理(NLP)の最近の進歩からモチベーションを導き,顧客アドレスを理解するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-06T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。