論文の概要: SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation
- arxiv url: http://arxiv.org/abs/2305.11130v2
- Date: Sat, 20 May 2023 06:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 11:09:25.002907
- Title: SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation
- Title(参考訳): SimOAP:オーバーサンプリングとポスト評価によるペルソナ対話生成における一貫性と一貫性の向上
- Authors: Junkai Zhou, Liang Pang, Huawei Shen, Xueqi Cheng
- Abstract要約: 大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
- 参考スコア(独自算出の注目度): 54.66399120084227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models trained on large-scale corpora can generate remarkably fluent
results in open-domain dialogue. However, for the persona-based dialogue
generation task, consistency and coherence are also key factors, which are
great challenges for language models. Existing works mainly focus on valuable
data filtering, model structure modifying, or objective function designing,
while their improvements are limited and hard to generalize to all types of
pre-trained language models. However, we find that language models can produce
consistent and coherent responses if we consider enough generations. Thus, the
problems lay in large-scale response generation and target response selection.
In this work, a simple but effective two-stage SimOAP strategy is proposed,
i.e., over-sampling and post-evaluation. The over-sampling stage takes
large-scale responses from existing trained models efficiently via
off-the-shelf distilling and compressing methods, and the post-evaluation stage
selects a good response based on multiple well-designed evaluation metrics from
large-scale candidates. Experimental results show that the proposed plug-in
SimOAP strategy improves the backbone models and outperforms the baseline
strategies in both automatic and human evaluations.
- Abstract(参考訳): 大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果をもたらす。
しかし、ペルソナに基づく対話生成タスクにおいては、一貫性と一貫性も重要な要素であり、言語モデルにとって大きな課題である。
既存の作業は主に価値あるデータフィルタリング、モデル構造の変更、あるいは客観的関数設計に重点を置いているが、その改善は限定的であり、事前訓練された全ての言語モデルに一般化するのは難しい。
しかし、十分な世代を考慮すれば、言語モデルは一貫性のある一貫性のある応答を生成することができる。
したがって、問題は大規模応答生成とターゲット応答選択にある。
本研究は,単純な2段階のSimOAP戦略,すなわちオーバーサンプリングとポスト評価を提案する。
オーバーサンプリング段階は,市販の蒸留・圧縮手法を用いて,既存の訓練モデルからの大規模応答を効率的に行い,評価段階は大規模候補からの複数のよく設計された評価指標に基づいて,優れた応答を選択する。
実験の結果,提案するプラグインsimoap戦略はバックボーンモデルを改善し,自動評価と人間評価の両方においてベースライン戦略を上回った。
関連論文リスト
- Is Crowdsourcing Breaking Your Bank? Cost-Effective Fine-Tuning of
Pre-trained Language Models with Proximal Policy Optimization [18.75866961339424]
ChatGPTは、人間のフィードバックによる強化学習の可能性を強調している。
労働コストを削減するために,自己監督型テキストランキング手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T12:24:07Z) - Split and Rephrase with Large Language Models [2.499907423888049]
Split and Rephrase (SPRP) タスクは、複雑な文を短い文法文の列に分割する。
タスク上の大きな言語モデルを評価し、主要なメトリクスに基づいて、技術の現状を大幅に改善できることを示します。
論文 参考訳(メタデータ) (2023-12-18T10:16:37Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Differentiable Retrieval Augmentation via Generative Language Modeling
for E-commerce Query Intent Classification [8.59563091603226]
本稿では,この問題を解決するために,ジェネレーティブなLanguageモデリング(Dragan)による識別可能な検索拡張を提案する。
本稿では,eコマース検索における難解なNLPタスク,すなわちクエリ意図分類における提案手法の有効性を示す。
論文 参考訳(メタデータ) (2023-08-18T05:05:35Z) - Learning Evaluation Models from Large Language Models for Sequence
Generation [44.22820310679188]
大規模言語モデルは、シーケンス生成評価において最先端のパフォーマンスを達成するが、典型的には多数のパラメータを持つ。
テキスト評価用textbfcapability textbftransfer 法である textbfECT を提案し,その評価能力を LLM から比較的軽量な言語モデルに転送する。
提案するECTに基づいて、ChatGPTから様々な評価モデルを学び、それらを報酬モデルとして利用してシーケンス生成モデルを改善する。
論文 参考訳(メタデータ) (2023-08-08T16:41:16Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Dynamic Data Selection and Weighting for Iterative Back-Translation [116.14378571769045]
本稿では,反復的バックトランスレーションモデルのためのカリキュラム学習戦略を提案する。
我々は、ドメイン適応、低リソース、高リソースMT設定に関するモデルを評価する。
実験の結果,提案手法は競争基準値よりも最大1.8 BLEU点の改善を達成できた。
論文 参考訳(メタデータ) (2020-04-07T19:49:58Z) - Prototype-to-Style: Dialogue Generation with Style-Aware Editing on
Retrieval Memory [65.98002918470543]
文体対話生成の課題に対処する新しいプロトタイプ・ツー・スタイルのフレームワークを提案する。
このフレームワークは、IR(Information Retrieval)システムを使用して、検索した応答から応答プロトタイプを抽出する。
スタイリスティック応答生成器は、プロトタイプと所望の言語スタイルをモデル入力として、高品質でスタイリスティックな応答を得る。
論文 参考訳(メタデータ) (2020-04-05T14:36:15Z) - An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation [23.343006562849126]
本稿では,オープンドメイン対話生成作業のための事前学習型トランスフォーマーに基づく自動回帰言語モデルについて実験的に検討する。
事前訓練と微調整の訓練パラダイムは、学習を行うために使用される。
実験は、Weibo、Douban、Reddit、DailyDialog、Persona-Chatといった典型的なシングルターンとマルチターンの対話コーパスで行われる。
論文 参考訳(メタデータ) (2020-03-09T15:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。