論文の概要: Understanding and Improving the Exemplar-based Generation for
Open-domain Conversation
- arxiv url: http://arxiv.org/abs/2112.06723v1
- Date: Mon, 13 Dec 2021 15:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 15:12:33.805217
- Title: Understanding and Improving the Exemplar-based Generation for
Open-domain Conversation
- Title(参考訳): オープンドメイン会話のためのexemplar-based generationの理解と改善
- Authors: Seungju Han, Beomsu Kim, Seokjun Seo, Enkhbayar Erdenee, Buru Chang
- Abstract要約: これらの欠点は、オープンドメイン会話における一対多の問題に由来すると我々は主張する。
本研究は,金の応答に意味論的に関連があるが,金の応答から語彙的に離れている経験者を選択する訓練手法を提案する。
提案手法は, 適切性, 情報性の観点から, 性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 9.335904274509918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-based generative models for open-domain conversation produce
responses based on the exemplars provided by the retriever, taking advantage of
generative models and retrieval models. However, they often ignore the
retrieved exemplars while generating responses or produce responses over-fitted
to the retrieved exemplars. In this paper, we argue that these drawbacks are
derived from the one-to-many problem of the open-domain conversation. When the
retrieved exemplar is relevant to the given context yet significantly different
from the gold response, the exemplar-based generative models are trained to
ignore the exemplar since the exemplar is not helpful for generating the gold
response. On the other hand, when the retrieved exemplar is lexically similar
to the gold response, the generative models are trained to rely on the exemplar
highly. Therefore, we propose a training method selecting exemplars that are
semantically relevant to the gold response but lexically distanced from the
gold response to mitigate the above disadvantages. In the training phase, our
proposed training method first uses the gold response instead of dialogue
context as a query to select exemplars that are semantically relevant to the
gold response. And then, it eliminates the exemplars that lexically resemble
the gold responses to alleviate the dependency of the generative models on that
exemplars. The remaining exemplars could be irrelevant to the given context
since they are searched depending on the gold response. Thus, our proposed
training method further utilizes the relevance scores between the given context
and the exemplars to penalize the irrelevant exemplars. Extensive experiments
demonstrate that our proposed training method alleviates the drawbacks of the
existing exemplar-based generative models and significantly improves the
performance in terms of appropriateness and informativeness.
- Abstract(参考訳): オープンドメイン会話のための模範に基づく生成モデルは、生成モデルと検索モデルを利用して、検索者が提供する模範に基づく応答を生成する。
しかし、検索した例題を無視し、応答を生成したり、検索した例題に過度に適合した反応を生成することが多い。
本稿では,オープンドメイン会話における一対多の問題から,これらの欠点を導出する。
抽出した例題が与えられた文脈と金反応と大きく異なる場合、例題に基づく生成モデルは、例題が金反応を生成するのに役に立たないため、例題を無視するように訓練される。
一方、回収された模範品が金の反応と語彙的に類似している場合、生成モデルは模範品に大きく依存するように訓練される。
そこで本研究では,金の反応に意味的に関係するが,金の応答と語彙的に距離を置き,上記の欠点を緩和する訓練手法を提案する。
トレーニング段階において,本提案手法はまず,ゴールド応答に意味論的に関連のある例を抽出するためのクエリとして,対話コンテキストの代わりにゴールド応答を用いる。
そして、金の反応に語彙的に類似している例を排除し、その例に生成モデルが依存することを緩和する。
残りの例は、金の反応に応じて探索されるため、与えられた文脈とは無関係である可能性がある。
そこで,提案手法では,与えられた文脈と実例との関連性スコアを活用し,無関係な実例をペナルティ化する。
広範な実験により,提案手法は既存の経験型生成モデルの欠点を軽減し,適切性と情報性の観点から性能を著しく向上することを示した。
関連論文リスト
- Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - Promoting Open-domain Dialogue Generation through Learning Pattern
Information between Contexts and Responses [5.936682548344234]
本稿では,学習サンプルの文脈と応答の間の暗黙的なパターン情報を学ぶことにより,生成した応答の品質を向上させる。
また、文脈と応答間の暗黙的パターン情報をマイニングする応答認識機構を設計し、生成した応答をより多様でヒトの応答に近似するようにした。
論文 参考訳(メタデータ) (2023-09-06T08:11:39Z) - Synthetic Prompting: Generating Chain-of-Thought Demonstrations for
Large Language Models [121.54462976635743]
大規模言語モデルはチェーン・オブ・ソート・プロンプトを使用して様々な推論タスクを実行でき、ステップ・バイ・ステップのデモを通じて回答を見つけることができる。
そこで本研究では,手作りの例を数種類活用して,モデルにさらに多くの例を生成する手法であるSynthetic promptingを紹介する。
本手法は数値的,記号的,アルゴリズム的推論タスクにおいて評価し,既存のプロンプト手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-01T17:33:12Z) - Pneg: Prompt-based Negative Response Generation for Dialogue Response
Selection Task [27.513992470527427]
検索に基づく対話システムでは、応答選択モデルがランサーとして機能し、複数の候補の中から最も適切な応答を選択する。
近年の研究では, 対向応答を負のトレーニングサンプルとして活用することは, 選択モデルの識別能力を向上させるのに有用であることが示されている。
本稿では,大規模言語モデルを利用した対向的負の応答を簡易に,かつ効率的に生成する手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T11:49:49Z) - Modeling Exemplification in Long-form Question Answering via Retrieval [48.02725841308491]
質問応答における模範化に関する最初の計算的研究について述べる。
我々は、最先端のLFQAモデルで関連するサンプルを生成するのに苦労するだけでなく、ROUGEのような標準評価指標では、模擬品質の判断に不十分であることを示す。
論文 参考訳(メタデータ) (2022-05-19T01:38:06Z) - Challenging Instances are Worth Learning: Generating Valuable Negative
Samples for Response Selection Training [16.34984384383166]
応答選択モジュールは、通常、アノテーション付きの正反応とサンプル化された負反応に基づいて訓練される。
我々は、モデルの堅牢性を高めるために、より困難な負のインスタンスを構築するために、事前訓練された言語モデルを使用します。
本手法は対話応答選択能力を大幅に改善する。
論文 参考訳(メタデータ) (2021-09-14T09:16:24Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - Controlling Dialogue Generation with Semantic Exemplars [55.460082747572734]
本稿では,経験的応答に現れる意味的フレームを用いて生成をガイドする,経験的対話生成モデルEDGEを提案する。
単語自体の単語ではなく、経験者の意味的フレームに基づく対話生成の制御により、生成した応答の一貫性が向上することを示す。
論文 参考訳(メタデータ) (2020-08-20T17:02:37Z) - Leveraging Passage Retrieval with Generative Models for Open Domain
Question Answering [61.394478670089065]
オープンドメインの質問に答えるための生成モデルは、外部の知識に頼らずに競争力があることが証明されている。
我々は、これらのモデルがテキストの文節を検索することでどれだけの恩恵を受けられるかを調査し、潜在的に証拠を含む可能性がある。
検索したパス数を増やすと,本手法の性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-02T17:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。