論文の概要: Self-attention Comparison Module for Boosting Performance on
Retrieval-based Open-Domain Dialog Systems
- arxiv url: http://arxiv.org/abs/2012.11357v1
- Date: Mon, 21 Dec 2020 14:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:38:18.795144
- Title: Self-attention Comparison Module for Boosting Performance on
Retrieval-based Open-Domain Dialog Systems
- Title(参考訳): 検索型オープンドメイン対話システムの性能向上のためのセルフアテンション比較モジュール
- Authors: Tian Lan, Xian-Ling Mao, Zhipeng Zhao, Wei Wei, Heyan Huang
- Abstract要約: 本研究では,検索型オープンドメイン対話システムのための新しいプラグイン自己アテンション比較モジュールを提案する。
提案する自己アテンション比較モジュールは,既存の検索ベースオープンドメインダイアログシステムの性能を効果的に向上させる。
- 参考スコア(独自算出の注目度): 24.819072664125525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the pre-trained language models are widely used, retrieval-based
open-domain dialog systems, have attracted considerable attention from
researchers recently. Most of the previous works select a suitable response
only according to the matching degree between the query and each individual
candidate response. Although good performance has been achieved, these recent
works ignore the comparison among the candidate responses, which could provide
rich information for selecting the most appropriate response. Intuitively,
better decisions could be made when the models can get access to the comparison
information among all the candidate responses. In order to leverage the
comparison information among the candidate responses, in this paper, we propose
a novel and plug-in Self-attention Comparison Module for retrieval-based
open-domain dialog systems, called SCM. Extensive experiment results
demonstrate that our proposed self-attention comparison module effectively
boosts the performance of the existing retrieval-based open-domain dialog
systems. Besides, we have publicly released our source codes for future
research.
- Abstract(参考訳): 事前学習された言語モデルが広く使われているため、検索に基づくオープンドメインダイアログシステムは近年、研究者の注目を集めている。
以前の作品のほとんどは、クエリと個々の候補応答の一致度に応じてのみ適切な応答を選択する。
優れた性能が得られたが、これらの最近の研究は、最も適切な応答を選択するための豊富な情報を提供する候補応答の比較を無視している。
直観的には、モデルがすべての候補応答間の比較情報にアクセスできるようになると、より良い決定が出来ます。
そこで本研究では,検索に基づくオープンドメインダイアログシステムであるSCMのための,新規かつプラグイン型のセルフアテンション比較モジュールを提案する。
実験の結果,提案する自己注意比較モジュールは,既存の検索型オープンドメインダイアログシステムの性能を効果的に向上させることが示された。
さらに、将来の研究のためにソースコードを公開しています。
関連論文リスト
- Selecting Query-bag as Pseudo Relevance Feedback for Information-seeking Conversations [76.70349332096693]
情報検索対話システムは電子商取引システムで広く利用されている。
クエリバッグに基づくPseudo Relevance Feedback framework(QB-PRF)を提案する。
関連クエリを備えたクエリバッグを構築し、擬似シグナルとして機能し、情報検索の会話をガイドする。
論文 参考訳(メタデータ) (2024-03-22T08:10:32Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - A Systematic Evaluation of Response Selection for Open Domain Dialogue [36.88551817451512]
同じダイアログで生成された複数の応答生成元からの応答を、適切な(正)と不適切な(負)として手動でアノテートするデータセットをキュレートした。
反応選択のための最先端手法の体系的評価を行い、複数の正の候補を用いたり、手動で検証された強陰性候補を用いたりすることで、それぞれRecall@1スコアの3%と13%の増加など、相手のトレーニングデータを用いた場合と比較して、大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-08-08T19:33:30Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Conversational Recommendation: Theoretical Model and Complexity Analysis [6.084774669743511]
理論的にドメインに依存しない会話推薦モデルを提案する。
効率的な会話戦略の発見はNPハードであることが示される。
また,カタログの特徴が個々の対話戦略の効率性に強く影響を与えることを示す。
論文 参考訳(メタデータ) (2021-11-10T09:05:52Z) - Contextual Fine-to-Coarse Distillation for Coarse-grained Response
Selection in Open-Domain Conversations [48.046725390986595]
オープンドメイン会話における粗粒度応答選択のための文脈ファイン・ツー・コアス(CFC)蒸留モデルを提案する。
提案モデルの性能を評価するため,RedditコメントダンプとTwitterコーパスに基づく2つの新しいデータセットを構築した。
論文 参考訳(メタデータ) (2021-09-24T08:22:35Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Do Response Selection Models Really Know What's Next? Utterance
Manipulation Strategies for Multi-turn Response Selection [11.465266718370536]
本研究では,検索に基づく対話システムにおけるユーザとシステム発話履歴の最適応答を選択するタスクについて検討する。
この問題に対処するための発話操作戦略(UMS)を提案する。
UMSは、ダイアログコヒーレンスを維持するための応答選択モデルを支援するいくつかの戦略(挿入、削除、検索)から構成される。
論文 参考訳(メタデータ) (2020-09-10T07:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。