論文の概要: Pneg: Prompt-based Negative Response Generation for Dialogue Response
Selection Task
- arxiv url: http://arxiv.org/abs/2210.17238v1
- Date: Mon, 31 Oct 2022 11:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:18:32.870977
- Title: Pneg: Prompt-based Negative Response Generation for Dialogue Response
Selection Task
- Title(参考訳): pneg:対話応答選択タスクのためのプロンプトに基づく否定応答生成
- Authors: Nyoungwoo Lee, ChaeHun Park, Ho-Jin Choi, and Jaegul Choo
- Abstract要約: 検索に基づく対話システムでは、応答選択モデルがランサーとして機能し、複数の候補の中から最も適切な応答を選択する。
近年の研究では, 対向応答を負のトレーニングサンプルとして活用することは, 選択モデルの識別能力を向上させるのに有用であることが示されている。
本稿では,大規模言語モデルを利用した対向的負の応答を簡易に,かつ効率的に生成する手法を提案する。
- 参考スコア(独自算出の注目度): 27.513992470527427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In retrieval-based dialogue systems, a response selection model acts as a
ranker to select the most appropriate response among several candidates.
However, such selection models tend to rely on context-response content
similarity, which makes models vulnerable to adversarial responses that are
semantically similar but not relevant to the dialogue context. Recent studies
have shown that leveraging these adversarial responses as negative training
samples is useful for improving the discriminating power of the selection
model. Nevertheless, collecting human-written adversarial responses is
expensive, and existing synthesizing methods often have limited scalability. To
overcome these limitations, this paper proposes a simple but efficient method
for generating adversarial negative responses leveraging a large-scale language
model. Experimental results on dialogue selection tasks show that our method
outperforms other methods of synthesizing adversarial negative responses. These
results suggest that our method can be an effective alternative to human
annotators in generating adversarial responses. Our dataset and generation code
is available at https://github.com/leenw23/generating-negatives-by-gpt3.
- Abstract(参考訳): 検索に基づく対話システムでは、応答選択モデルがランサーとして機能し、複数の候補の中から最も適切な応答を選択する。
しかし、このような選択モデルは文脈応答の類似性に頼りがちであり、意味的に類似するが対話の文脈に関係しない敵の反応に対して脆弱なモデルとなる。
近年の研究では、これらの逆応答を負のトレーニングサンプルとして利用することは、選択モデルの識別能力を向上させるのに有用であることが示されている。
それでも、人間による逆応答の収集は高価であり、既存の合成手法はスケーラビリティに乏しいことが多い。
これらの制約を克服するために,大規模言語モデルを利用した対向的負の応答生成法を提案する。
対話選択タスクの実験結果から,本手法は他の逆負応答合成法よりも優れていた。
これらの結果から,本手法はヒトのアノテータに有効な代替手段である可能性が示唆された。
私たちのデータセットと生成コードは、https://github.com/leenw23/generating-negatives-by-gpt3で利用可能です。
関連論文リスト
- JoTR: A Joint Transformer and Reinforcement Learning Framework for
Dialog Policy Learning [53.83063435640911]
対話政策学習(DPL)は対話モデリングの重要な構成要素である。
フレキシブルな対話行動を生成するための新しいフレームワークであるJoTRを導入する。
従来の方法とは異なり、JoTRはよりダイナミックで適応可能な対話アクション生成を可能にするワードレベルのポリシーを定式化している。
論文 参考訳(メタデータ) (2023-09-01T03:19:53Z) - SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - Reranking Overgenerated Responses for End-to-End Task-Oriented Dialogue
Systems [71.33737787564966]
エンド・ツー・エンド(E2E)タスク指向対話システム(ToD)は、いわゆる「いいね!
本稿では,システムによって当初過剰に生成された応答リストから高品質な項目を選択する方法を提案する。
本研究では,最先端のE2E ToDシステムを2.4BLEU,3.2ROUGE,2.8 METEORで改善し,新たなピーク値を得た。
論文 参考訳(メタデータ) (2022-11-07T15:59:49Z) - A Systematic Evaluation of Response Selection for Open Domain Dialogue [36.88551817451512]
同じダイアログで生成された複数の応答生成元からの応答を、適切な(正)と不適切な(負)として手動でアノテートするデータセットをキュレートした。
反応選択のための最先端手法の体系的評価を行い、複数の正の候補を用いたり、手動で検証された強陰性候補を用いたりすることで、それぞれRecall@1スコアの3%と13%の増加など、相手のトレーニングデータを用いた場合と比較して、大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-08-08T19:33:30Z) - Diversifying Neural Dialogue Generation via Negative Distillation [11.124375734351826]
本稿では, モデルが望ましくない汎用応答から遠ざけるために, 負蒸留と呼ばれる新しい負の訓練パラダイムを提案する。
実験結果から,本手法は従来の負の訓練方法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-05T17:14:56Z) - Challenging Instances are Worth Learning: Generating Valuable Negative
Samples for Response Selection Training [16.34984384383166]
応答選択モジュールは、通常、アノテーション付きの正反応とサンプル化された負反応に基づいて訓練される。
我々は、モデルの堅牢性を高めるために、より困難な負のインスタンスを構築するために、事前訓練された言語モデルを使用します。
本手法は対話応答選択能力を大幅に改善する。
論文 参考訳(メタデータ) (2021-09-14T09:16:24Z) - Synthesizing Adversarial Negative Responses for Robust Response Ranking
and Evaluation [34.52276336319678]
オープンドメインニューラルダイアログモデルは、応答のランク付けと評価タスクにおいて高い性能を達成している。
コンテンツ類似性への過度な依存は、モデルが不整合の存在に敏感でないようにする。
本稿では,逆負の学習データを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-10T16:20:55Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Weakly-Supervised Neural Response Selection from an Ensemble of
Task-Specialised Dialogue Agents [11.21333474984984]
異種対話エージェントが生成する応答の集合から最適な応答を選択するという問題をモデル化する。
提案手法は,カリキュラム学習機構を用いて,一対一の会話における一貫性のある応答のセットを予測することを訓練する。
論文 参考訳(メタデータ) (2020-05-06T18:40:26Z) - Counterfactual Off-Policy Training for Neural Response Generation [94.76649147381232]
本稿では,反実的推論による潜在的応答の探索を提案する。
対人学習の枠組みの下での対物反応の訓練は、潜在的応答空間の高逆領域を探索するのに役立つ。
DailyDialogデータセットに関する実証的研究は、我々のアプローチがHREDモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-04-29T22:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。