論文の概要: Mix-and-Match: Scalable Dialog Response Retrieval using Gaussian Mixture
Embeddings
- arxiv url: http://arxiv.org/abs/2204.02710v1
- Date: Wed, 6 Apr 2022 10:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 21:40:59.824021
- Title: Mix-and-Match: Scalable Dialog Response Retrieval using Gaussian Mixture
Embeddings
- Title(参考訳): Mix-and-Match:ガウス混合埋め込みを用いたスケーラブルな対話応答検索
- Authors: Gaurav Pandey, Danish Contractor and Sachindra Joshi
- Abstract要約: ダイアログ応答検索のための埋め込みベースのアプローチは、埋め込み空間のポイントとしてコンテキスト応答ペアを埋め込む。
スペクトルの反対側には、複数のニューラルネットワーク層を通してコンテキスト応答ペアを協調的に供給するアプローチがある。
本稿では,コンテキスト応答対間の複雑な関係を学習できるスケーラブルモデルを提案する。
- 参考スコア(独自算出の注目度): 15.693014223580075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Embedding-based approaches for dialog response retrieval embed the
context-response pairs as points in the embedding space. These approaches are
scalable, but fail to account for the complex, many-to-many relationships that
exist between context-response pairs. On the other end of the spectrum, there
are approaches that feed the context-response pairs jointly through multiple
layers of neural networks. These approaches can model the complex relationships
between context-response pairs, but fail to scale when the set of responses is
moderately large (>100). In this paper, we combine the best of both worlds by
proposing a scalable model that can learn complex relationships between
context-response pairs. Specifically, the model maps the contexts as well as
responses to probability distributions over the embedding space. We train the
models by optimizing the Kullback-Leibler divergence between the distributions
induced by context-response pairs in the training data. We show that the
resultant model achieves better performance as compared to other
embedding-based approaches on publicly available conversation data.
- Abstract(参考訳): ダイアログ応答検索のための埋め込みベースのアプローチは、コンテキスト応答ペアを埋め込み空間のポイントとして埋め込む。
これらのアプローチはスケーラブルであるが、コンテキスト応答対の間に存在する複雑な多対多の関係を考慮できない。
スペクトルの反対側には、複数のニューラルネットワーク層を通してコンテキスト応答ペアを協調的に供給するアプローチがある。
これらのアプローチは、文脈-応答ペア間の複雑な関係をモデル化できるが、応答の集合が適度に大きいとスケールしない(>100)。
本稿では,文脈応答対間の複雑な関係を学習できるスケーラブルなモデルを提案することによって,両世界の長所を組み合わせる。
具体的には、モデルがコンテキストと埋め込み空間上の確率分布への応答をマッピングする。
学習データ中の文脈応答対によって誘導される分布間のKulback-Leibler分散を最適化することによりモデルを訓練する。
その結果,公開会話データに対する他の組込み型アプローチと比較して,結果モデルの性能が向上することが示された。
関連論文リスト
- Multi-party Response Generation with Relation Disentanglement [8.478506896774137]
既存のニューラルレスポンス生成モデルは、双方向の会話で大幅に改善されている。
しかし、現実世界の対話の多くは複数の対話者を含み、会話の文脈の構造はより複雑である。
本研究では,人間ラベルを使わずに,会話の文脈内での微妙な手がかりに基づいて関係性を推論する手法を提案する。
論文 参考訳(メタデータ) (2024-03-16T06:33:44Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Learnable Pillar-based Re-ranking for Image-Text Retrieval [119.9979224297237]
画像テキスト検索は、モダリティギャップを埋め、意味的類似性に基づいてモダリティコンテンツを検索することを目的としている。
一般的なポストプロセッシング手法であるリグレードは, 単一モダリティ検索タスクにおいて, 隣り合う関係を捕捉する優位性を明らかにしている。
本稿では,画像テキスト検索のための新しい学習可能な柱型リグレードパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-25T04:33:27Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Query Expansion Using Contextual Clue Sampling with Language Models [69.51976926838232]
本稿では,実効的なフィルタリング戦略と検索した文書の融合の組み合わせを,各文脈の生成確率に基づいて提案する。
我々の語彙マッチングに基づくアプローチは、よく確立された高密度検索モデルDPRと比較して、同様のトップ5/トップ20検索精度と上位100検索精度を実現する。
エンド・ツー・エンドのQAでは、読者モデルも我々の手法の恩恵を受けており、いくつかの競争基準に対してエクサクト・マッチのスコアが最も高い。
論文 参考訳(メタデータ) (2022-10-13T15:18:04Z) - Synthesizing Adversarial Negative Responses for Robust Response Ranking
and Evaluation [34.52276336319678]
オープンドメインニューラルダイアログモデルは、応答のランク付けと評価タスクにおいて高い性能を達成している。
コンテンツ類似性への過度な依存は、モデルが不整合の存在に敏感でないようにする。
本稿では,逆負の学習データを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-10T16:20:55Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Multi-Referenced Training for Dialogue Response Generation [36.24321477524634]
実世界の確率分布と単一参照データの確率分布とのギャップは,モデルが1対多の関係を効率的に学習することを妨げることを示す。
我々は、実世界の分布をよりよく近似するマルチ参照データを構築するために、強力な事前学習モデルから多様な擬似参照を生成する。
論文 参考訳(メタデータ) (2020-09-15T14:17:53Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。