論文の概要: Improved Customer Transaction Classification using Semi-Supervised
Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2102.07635v1
- Date: Mon, 15 Feb 2021 16:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 16:50:45.412970
- Title: Improved Customer Transaction Classification using Semi-Supervised
Knowledge Distillation
- Title(参考訳): 半監督知識蒸留による顧客取引分類の改善
- Authors: Rohan Sukumaran
- Abstract要約: 本稿では,セミスーパービジョンおよび知識蒸留フレームワークに基づくコスト効率の高いトランザクション分類手法を提案する。
このアプローチは、顧客が入力した自由テキストを用いてトランザクションのカテゴリを特定する。
弱いラベルを使い、人間の注釈付きサンプルを使うのと性能が似ていることに気付きます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In pickup and delivery services, transaction classification based on customer
provided free text is a challenging problem. It involves the association of a
wide variety of customer inputs to a fixed set of categories while adapting to
the various customer writing styles. This categorization is important for the
business: it helps understand the market needs and trends, and also assist in
building a personalized experience for different segments of the customers.
Hence, it is vital to capture these category information trends at scale, with
high precision and recall. In this paper, we focus on a specific use-case where
a single category drives each transaction. We propose a cost-effective
transaction classification approach based on semi-supervision and knowledge
distillation frameworks. The approach identifies the category of a transaction
using free text input given by the customer. We use weak labelling and notice
that the performance gains are similar to that of using human-annotated
samples. On a large internal dataset and on 20Newsgroup dataset, we see that
RoBERTa performs the best for the categorization tasks. Further, using an
ALBERT model (it has 33x fewer parameters vis-a-vis parameters of RoBERTa),
with RoBERTa as the Teacher, we see a performance similar to that of RoBERTa
and better performance over unadapted ALBERT. This framework, with ALBERT as a
student and RoBERTa as teacher, is further referred to as R-ALBERT in this
paper. The model is in production and is used by business to understand
changing trends and take appropriate decisions.
- Abstract(参考訳): ピックアップおよび配送サービスでは、顧客が提供する無料テキストに基づくトランザクション分類が難しい問題である。
さまざまな顧客入力を、さまざまな顧客書き込みスタイルに適応しつつ、一定のカテゴリのセットに関連付けることを含む。
この分類はビジネスにとって重要です:それは市場のニーズと傾向を理解し、顧客のさまざまなセグメントのためのパーソナライズされた体験を構築するのにも役立ちます。
したがって、これらのカテゴリ情報の傾向を高精度かつ高精度に把握することが不可欠である。
本稿では、1つのカテゴリが各トランザクションを駆動する特定のユースケースに焦点を当てる。
本稿では,セミスーパービジョンおよび知識蒸留フレームワークに基づくコスト効率の高いトランザクション分類手法を提案する。
このアプローチは、顧客が入力した自由テキストを用いてトランザクションのカテゴリを特定する。
弱いラベルを使い、人間の注釈付きサンプルを使うのと性能が似ていることに気付きます。
大規模な内部データセットと20Newsgroupデータセットでは、RoBERTaが分類タスクに最適であることがわかった。
さらに、ALBERTモデル(RoBERTaのパラメータが33倍少ない)を用いて、RoBERTaを教師として、RoBERTaと同じような性能を示し、未適応のALBERTよりも優れた性能を示す。
このフレームワークは、ALBERTを学生として、RoBERTaを教師として、さらにR-ALBERTと呼ばれる。
モデルは生産中であり、変化する傾向を理解し、適切な決定を下すためにビジネスによって使用されます。
関連論文リスト
- Exploring Fine-grained Retail Product Discrimination with Zero-shot Object Classification Using Vision-Language Models [50.370043676415875]
スマートリテールアプリケーションでは、多数の製品とその頻繁なターンオーバーは信頼性の高いゼロショットオブジェクト分類方法を必要とする。
我々は28の異なる製品カテゴリからなるMIMEXデータセットを紹介した。
我々は、提案したMIMEXデータセット上で、最先端ビジョン言語モデル(VLM)のゼロショットオブジェクト分類性能をベンチマークする。
論文 参考訳(メタデータ) (2024-09-23T12:28:40Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Optimizing Multi-Class Text Classification: A Diverse Stacking Ensemble
Framework Utilizing Transformers [0.0]
本研究では,トランスモデルを利用したマルチテキスト分類手法を提案する。
BERT、ELECTRA、DistilBERTを含む複数の単一トランスを組み合わせることにより、最適な予測モデルを生成する。
実世界の顧客レビューデータセットを用いて実験評価を行い,提案手法の有効性と優位性を示した。
論文 参考訳(メタデータ) (2023-08-19T13:29:15Z) - Ranking-based Group Identification via Factorized Attention on Social
Tripartite Graph [68.08590487960475]
グループ識別のための文脈的要因認識(CFAG)という,GNNに基づく新しいフレームワークを提案する。
我々は3部グラフ畳み込み層を考案し、ユーザ、グループ、アイテム間の異なる種類の近隣からの情報を集約する。
データ疎度問題に対処するため,提案した因子化注意機構に基づく新しい伝搬増強層を考案した。
論文 参考訳(メタデータ) (2022-11-02T01:42:20Z) - Association Graph Learning for Multi-Task Classification with Category
Shifts [68.58829338426712]
関連する分類タスクが同じラベル空間を共有し、同時に学習されるマルチタスク分類に焦点を当てる。
我々は、不足クラスのためのタスク間で知識を伝達する関連グラフを学習する。
我々の手法は代表的基準よりも一貫して性能が良い。
論文 参考訳(メタデータ) (2022-10-10T12:37:41Z) - A Semi-supervised Multi-task Learning Approach to Classify Customer
Contact Intents [6.267558847860381]
EコマースのWebサイト上で、顧客サポートサービスのためのテキストベースの意図分類モデルを構築します。
我々は、モデルをマルチクラス分類からセミ教師付きマルチタスク学習に進化させることにより、性能を著しく向上させる。
評価において、最終モデルは、ベースラインの微調整されたマルチクラス分類ALBERTモデルと比較して平均AUC ROCを約20ポイント向上させる。
論文 参考訳(メタデータ) (2021-06-10T16:13:05Z) - Multi-class Text Classification using BERT-based Active Learning [4.028503203417233]
顧客トランザクションを複数のカテゴリに分類することは、異なる顧客セグメントの市場ニーズを理解するのに役立つ。
BERTベースのモデルは自然言語理解でうまく機能することが証明されています。
マルチクラステキスト分類における様々なアクティブラーニング戦略間でBERTの性能をベンチマークする。
論文 参考訳(メタデータ) (2021-04-27T19:49:39Z) - Regularised Text Logistic Regression: Key Word Detection and Sentiment
Classification for Online Reviews [8.036300326665538]
非構造化テキストデータに対するテキスト分析と感情分類を行うための正規化テキストロジスティック回帰モデルを提案する。
RTLモデルをTripAdvisorの2つのオンラインレビューデータセットであるRestaurantとHotelに適用する。
論文 参考訳(メタデータ) (2020-09-09T22:37:53Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z) - Automatic Validation of Textual Attribute Values in E-commerce Catalog
by Learning with Limited Labeled Data [61.789797281676606]
そこで我々はMetaBridgeと呼ばれる新しいメタ学習潜伏変数アプローチを提案する。
限られたラベル付きデータを持つカテゴリのサブセットから、転送可能な知識を学ぶことができる。
ラベルのないデータで、目に見えないカテゴリの不確実性を捉えることができる。
論文 参考訳(メタデータ) (2020-06-15T21:31:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。