論文の概要: Self-attention Comparison Module for Boosting Performance on
Retrieval-based Open-Domain Dialog Systems
- arxiv url: http://arxiv.org/abs/2012.11357v1
- Date: Mon, 21 Dec 2020 14:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:38:18.795144
- Title: Self-attention Comparison Module for Boosting Performance on
Retrieval-based Open-Domain Dialog Systems
- Title(参考訳): 検索型オープンドメイン対話システムの性能向上のためのセルフアテンション比較モジュール
- Authors: Tian Lan, Xian-Ling Mao, Zhipeng Zhao, Wei Wei, Heyan Huang
- Abstract要約: 本研究では,検索型オープンドメイン対話システムのための新しいプラグイン自己アテンション比較モジュールを提案する。
提案する自己アテンション比較モジュールは,既存の検索ベースオープンドメインダイアログシステムの性能を効果的に向上させる。
- 参考スコア(独自算出の注目度): 24.819072664125525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the pre-trained language models are widely used, retrieval-based
open-domain dialog systems, have attracted considerable attention from
researchers recently. Most of the previous works select a suitable response
only according to the matching degree between the query and each individual
candidate response. Although good performance has been achieved, these recent
works ignore the comparison among the candidate responses, which could provide
rich information for selecting the most appropriate response. Intuitively,
better decisions could be made when the models can get access to the comparison
information among all the candidate responses. In order to leverage the
comparison information among the candidate responses, in this paper, we propose
a novel and plug-in Self-attention Comparison Module for retrieval-based
open-domain dialog systems, called SCM. Extensive experiment results
demonstrate that our proposed self-attention comparison module effectively
boosts the performance of the existing retrieval-based open-domain dialog
systems. Besides, we have publicly released our source codes for future
research.
- Abstract(参考訳): 事前学習された言語モデルが広く使われているため、検索に基づくオープンドメインダイアログシステムは近年、研究者の注目を集めている。
以前の作品のほとんどは、クエリと個々の候補応答の一致度に応じてのみ適切な応答を選択する。
優れた性能が得られたが、これらの最近の研究は、最も適切な応答を選択するための豊富な情報を提供する候補応答の比較を無視している。
直観的には、モデルがすべての候補応答間の比較情報にアクセスできるようになると、より良い決定が出来ます。
そこで本研究では,検索に基づくオープンドメインダイアログシステムであるSCMのための,新規かつプラグイン型のセルフアテンション比較モジュールを提案する。
実験の結果,提案する自己注意比較モジュールは,既存の検索型オープンドメインダイアログシステムの性能を効果的に向上させることが示された。
さらに、将来の研究のためにソースコードを公開しています。
関連論文リスト
- GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - A combined approach to the analysis of speech conversations in a contact
center domain [2.575030923243061]
本稿では, インバウンドフローやアウトバウンドフローから抽出した通話記録を扱う, イタリアのコンタクトセンターにおける音声分析プロセスの実験について述べる。
まず,Kaldi フレームワークをベースとした社内音声合成ソリューションの開発について詳述する。
そこで我々は,コールトランスクリプトのセマンティックタグ付けに対する異なるアプローチの評価と比較を行った。
最後に、タグ付け問題にJ48Sと呼ばれる決定木インデューサを適用する。
論文 参考訳(メタデータ) (2022-03-12T10:03:20Z) - Conversational Recommendation: Theoretical Model and Complexity Analysis [6.084774669743511]
理論的にドメインに依存しない会話推薦モデルを提案する。
効率的な会話戦略の発見はNPハードであることが示される。
また,カタログの特徴が個々の対話戦略の効率性に強く影響を与えることを示す。
論文 参考訳(メタデータ) (2021-11-10T09:05:52Z) - Exploring Dense Retrieval for Dialogue Response Selection [42.89426092886912]
本研究では,高密度検索モデルを用いて,大規模コーパスや非並列コーパスから直接適切な応答を選択する方法を提案する。
再ランク設定では、その単純さを考えると、その優位性はかなり驚きます。フルランク設定では、私たちは、そのような評価を最初に行うことを強調できます。
論文 参考訳(メタデータ) (2021-10-13T10:10:32Z) - Contextual Fine-to-Coarse Distillation for Coarse-grained Response
Selection in Open-Domain Conversations [48.046725390986595]
オープンドメイン会話における粗粒度応答選択のための文脈ファイン・ツー・コアス(CFC)蒸留モデルを提案する。
提案モデルの性能を評価するため,RedditコメントダンプとTwitterコーパスに基づく2つの新しいデータセットを構築した。
論文 参考訳(メタデータ) (2021-09-24T08:22:35Z) - Global-Selector: A New Benchmark Dataset and Model Architecture for
Multi-turn Response Selection [4.970628428602204]
マルチターン応答選択は,対話流速を改善するために,複数の候補の中から最適な応答を選択することを目的としている。
既存のアプローチはしばしば文のスコアリング問題として定式化され、応答間の関係を考慮しない。
上記の問題に対処するため、ConvAI2+と呼ばれる新しいデータセットを作成し、Global-Selectorと呼ばれる新しい応答セレクタを提案する。
論文 参考訳(メタデータ) (2021-06-02T16:14:51Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。