論文の概要: CORAL: Contextual Response Retrievability Loss Function for Training
Dialog Generation Models
- arxiv url: http://arxiv.org/abs/2205.10558v1
- Date: Sat, 21 May 2022 10:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 16:25:00.532640
- Title: CORAL: Contextual Response Retrievability Loss Function for Training
Dialog Generation Models
- Title(参考訳): coral: トレーニングダイアログ生成モデルのための文脈応答検索可能性損失関数
- Authors: Bishal Santra, Ravi Ghadia, Arpit Dwivedi, Manish Gupta and Pawan
Goyal
- Abstract要約: 生成した応答に対する人間の嗜好の見積を直接最適化する新しい損失関数であるCORALを提案する。
また, CORAL を用いた対話生成モデルでは, 応答の非存在を前提とせずに, 対話生成モデルを訓練することができる。
2つのベンチマークデータセットの大規模な比較により、提案手法は異なる大きさの強力な最先端ベースラインモデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 11.584050188250574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Natural Language Generation (NLG) represents a large collection of tasks in
the field of NLP. While many of these tasks have been tackled well by the
cross-entropy (CE) loss, the task of dialog generation poses a few unique
challenges for this loss function. First, CE loss assumes that for any given
input, the only possible output is the one available as the ground truth in the
training dataset. In general, this is not true for any task, as there can be
multiple semantically equivalent sentences, each with a different surface form.
This problem gets exaggerated further for the dialog generation task, as there
can be multiple valid responses (for a given context) that not only have
different surface forms but are also not semantically equivalent. Second, CE
loss does not take the context into consideration while processing the response
and, hence, it treats all ground truths with equal importance irrespective of
the context. But, we may want our final agent to avoid certain classes of
responses (e.g. bland, non-informative or biased responses) and give relatively
higher weightage for more context-specific responses. To circumvent these
shortcomings of the CE loss, in this paper, we propose a novel loss function,
CORAL, that directly optimizes recently proposed estimates of human preference
for generated responses. Using CORAL, we can train dialog generation models
without assuming non-existence of response other than the ground-truth. Also,
the CORAL loss is computed based on both the context and the response.
Extensive comparisons on two benchmark datasets show that the proposed methods
outperform strong state-of-the-art baseline models of different sizes.
- Abstract(参考訳): 自然言語生成(NLG)は、NLP分野におけるタスクの集合である。
これらのタスクの多くは、クロスエントロピー(CE)損失によってうまく取り組まれているが、ダイアログ生成のタスクは、この損失関数にいくつかのユニークな課題をもたらす。
まず、CE損失は、任意の入力に対して唯一可能な出力はトレーニングデータセットの真理として利用できるものであると仮定する。
一般に、これはどんなタスクにも当てはまるものではなく、複数の意味論的に等価な文があり、それぞれ異なる表面形式を持つ。
この問題はダイアログ生成タスクではさらに誇張され、複数の有効な応答(与えられたコンテキストに対して)があり、異なる表面形式を持つだけでなく、意味的に等価ではない。
第二に、CE損失は応答を処理する際に文脈を考慮に入れず、従って、文脈に関係なく全ての基底真理を同じ重要性で扱う。
しかし、最終的なエージェントは特定の応答クラス(例えば、bland、non-informative、biased response)を避けて、よりコンテキスト固有の応答に対して比較的高い重み付けをして欲しいかもしれません。
本稿では、CE損失のこれらの欠点を回避するために、最近提案されたヒトの反応に対する嗜好の予測を直接最適化する新しい損失関数、CORALを提案する。
coralを使用すると、接地以外の応答が存在しないと仮定することなく、ダイアログ生成モデルをトレーニングできる。
また、コンテキストと応答の両方に基づいて、CORAL損失を算出する。
2つのベンチマークデータセットの広範な比較により、提案手法は、異なる大きさの強固な最先端のベースラインモデルを上回ることが示された。
関連論文リスト
- Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - A Systematic Evaluation of Response Selection for Open Domain Dialogue [36.88551817451512]
同じダイアログで生成された複数の応答生成元からの応答を、適切な(正)と不適切な(負)として手動でアノテートするデータセットをキュレートした。
反応選択のための最先端手法の体系的評価を行い、複数の正の候補を用いたり、手動で検証された強陰性候補を用いたりすることで、それぞれRecall@1スコアの3%と13%の増加など、相手のトレーニングデータを用いた場合と比較して、大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-08-08T19:33:30Z) - CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement
Learning [85.3987745097806]
オフライン強化学習は、人間の話者から収集された静的データセットを使用して、対話エージェントをトレーニングするために使用することができる。
実験により,最近開発されたオフラインRL手法と言語モデルを組み合わせることで,現実的な対話エージェントが得られることが示された。
論文 参考訳(メタデータ) (2022-04-18T17:43:21Z) - Automatically Generating Counterfactuals for Relation Exaction [18.740447044960796]
関係抽出(RE)は自然言語処理の基本課題である。
現在のディープニューラルモデルは高い精度を達成しているが、スプリアス相関の影響を受けやすい。
我々は、エンティティの文脈的反事実を導出するための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2022-02-22T04:46:10Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - The World is Not Binary: Learning to Rank with Grayscale Data for
Dialogue Response Selection [55.390442067381755]
人間の努力なしに、グレースケールのデータを自動的に構築できることが示される。
本手法では,自動グレースケールデータ生成装置として,市販の応答検索モデルと応答生成モデルを用いる。
3つのベンチマークデータセットと4つの最先端マッチングモデルの実験は、提案手法が大幅に、一貫したパフォーマンス改善をもたらすことを示している。
論文 参考訳(メタデータ) (2020-04-06T06:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。