論文の概要: A comprehensive solution to retrieval-based chatbot construction
- arxiv url: http://arxiv.org/abs/2106.06139v1
- Date: Fri, 11 Jun 2021 02:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:37:36.703309
- Title: A comprehensive solution to retrieval-based chatbot construction
- Title(参考訳): 検索型チャットボット構築のための総合的解法
- Authors: Kristen Moore, Shenjun Zhong, Zhen He, Torsten Rudolf, Nils Fisher,
Brandon Victor, Neha Jindal
- Abstract要約: 我々は、未ラベルのチャットログからデプロイされたチャットボットへ読者を連れて行くための、エンドツーエンドのソリューションセットを提示する。
このソリューションセットには、セルフ教師付きデータセットと、チャットログから弱いラベル付きデータセットを作成すること、および、缶詰されたレスポンスの固定リストを選択するための体系的なアプローチが含まれる。
自己教師付きコントラスト学習モデルを使用することで、弱いラベル付きデータセット上でのバイナリクラスとマルチクラス分類モデルのトレーニングに優れることがわかった。
- 参考スコア(独自算出の注目度): 4.807955518532493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we present the results of our experiments in training and
deploying a self-supervised retrieval-based chatbot trained with contrastive
learning for assisting customer support agents. In contrast to most existing
research papers in this area where the focus is on solving just one component
of a deployable chatbot, we present an end-to-end set of solutions to take the
reader from an unlabelled chatlogs to a deployed chatbot. This set of solutions
includes creating a self-supervised dataset and a weakly labelled dataset from
chatlogs, as well as a systematic approach to selecting a fixed list of canned
responses. We present a hierarchical-based RNN architecture for the response
selection model, chosen for its ability to cache intermediate utterance
embeddings, which helped to meet deployment inference speed requirements. We
compare the performance of this architecture across 3 different learning
objectives: self-supervised contrastive learning, binary classification, and
multi-class classification. We find that using a self-supervised contrastive
learning model outperforms training the binary and multi-class classification
models on a weakly labelled dataset. Our results validate that the
self-supervised contrastive learning approach can be effectively used for a
real-world chatbot scenario.
- Abstract(参考訳): 本稿では,顧客支援エージェント支援のためのコントラスト学習による自己教師付き検索型チャットボットの訓練と展開に関する実験結果について述べる。
デプロイ可能なチャットボットの1つのコンポーネントを解決することに焦点を当てているこの分野のほとんどの研究論文とは対照的に、私たちは、ラベルなしのチャットログからデプロイされたチャットボットに読者を取り込むための、エンドツーエンドのソリューションセットを提示します。
このソリューションには、自己教師付きデータセットと、チャットログから弱いラベル付きデータセットを作成することや、缶詰応答の固定リストを選択するための体系的なアプローチが含まれる。
本稿では、応答選択モデルのための階層型rnnアーキテクチャを提案する。中間発話埋め込みをキャッシュする能力が選択され、デプロイメント推論の速度要件を満たすのに役立った。
このアーキテクチャの性能を,自己教師ありコントラスト学習,バイナリ分類,マルチクラス分類という3つの異なる学習目標と比較した。
自己教師付きコントラスト学習モデルを使用することで、弱いラベル付きデータセット上でのバイナリクラスとマルチクラス分類モデルのトレーニングに優れることがわかった。
本結果は,現実のチャットボットのシナリオにおいて,自己指導型コントラスト学習アプローチが効果的に利用できることを示す。
関連論文リスト
- Lightweight Unsupervised Federated Learning with Pretrained Vision Language Model [32.094290282897894]
フェデレートラーニングは、物理的に孤立したクライアントから、ユーザのデータのプライバシを保護しながら、集合モデルをトレーニングすることを目的としている。
本稿では,各クライアントのラベルのないデータを活用して,軽量なモデルトレーニングとコミュニケーションを行う,軽量な非教師付きフェデレーション学習手法を提案する。
提案手法は,CLIPのゼロショット予測と比較してモデル性能を大幅に向上させるとともに,教師付きフェデレーション学習ベンチマーク手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-17T03:42:48Z) - An efficient domain-independent approach for supervised keyphrase extraction and ranking [0.03626013617212666]
単一文書からキーフレーズを自動抽出するための教師付き学習手法を提案する。
我々の解は、候補句の統計的特徴と位置的特徴を簡易に計算する。
評価の結果,提案手法はいくつかの最先端ベースラインモデルよりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2024-03-24T08:33:27Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - Systematic Training and Testing for Machine Learning Using Combinatorial
Interaction Testing [0.0]
本稿では,機械学習モデルにおけるテストセットとトレーニングセットの選択と特徴付けのためのカバレッジの体系的利用について述べる。
この論文は、カバレッジに対する事前の批判に対処し、機械学習アプリケーションにおけるカバレッジメトリクスの使用を提唱する反論を提供する。
論文 参考訳(メタデータ) (2022-01-28T21:33:31Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - Conversational Query Rewriting with Self-supervised Learning [36.392717968127016]
Conversational Query Rewriting (CQR) は、会話クエリを自己完結した発話に明示的に書き換えることによって、マルチターン対話を単一ターン問題に単純化することを目的としている。
既存のアプローチは、アノテートに労働集約的な大規模な教師付きトレーニングデータに依存している。
我々は,人間のアノテーションを必要としない自己教師付き学習により,大規模CQRデータセットを自動構築することを提案する。
論文 参考訳(メタデータ) (2021-02-09T08:57:53Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - The World is Not Binary: Learning to Rank with Grayscale Data for
Dialogue Response Selection [55.390442067381755]
人間の努力なしに、グレースケールのデータを自動的に構築できることが示される。
本手法では,自動グレースケールデータ生成装置として,市販の応答検索モデルと応答生成モデルを用いる。
3つのベンチマークデータセットと4つの最先端マッチングモデルの実験は、提案手法が大幅に、一貫したパフォーマンス改善をもたらすことを示している。
論文 参考訳(メタデータ) (2020-04-06T06:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。