論文の概要: Improving Factual Consistency Between a Response and Persona Facts
- arxiv url: http://arxiv.org/abs/2005.00036v2
- Date: Mon, 15 Feb 2021 04:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:51:41.591426
- Title: Improving Factual Consistency Between a Response and Persona Facts
- Title(参考訳): 応答と人格的事実の事実的一貫性を改善する
- Authors: Mohsen Mesgar, Edwin Simpson, Iryna Gurevych
- Abstract要約: 応答生成のためのニューラルネットワークは、意味論的に妥当であるが、必ずしも話者のペルソナを記述する事実と矛盾しない応答を生成する。
我々は,これらのモデルを強化学習により微調整し,応答とペルソナ事実の一貫性と意味的妥当性を明確に把握する効率的な報酬関数を提案する。
- 参考スコア(独自算出の注目度): 64.30785349238619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural models for response generation produce responses that are semantically
plausible but not necessarily factually consistent with facts describing the
speaker's persona. These models are trained with fully supervised learning
where the objective function barely captures factual consistency. We propose to
fine-tune these models by reinforcement learning and an efficient reward
function that explicitly captures the consistency between a response and
persona facts as well as semantic plausibility. Our automatic and human
evaluations on the PersonaChat corpus confirm that our approach increases the
rate of responses that are factually consistent with persona facts over its
supervised counterpart while retaining the language quality of responses.
- Abstract(参考訳): 応答生成のためのニューラルモデルは、意味的に妥当であるが、必ずしも話者のペルソナを記述する事実と一致しない応答を生成する。
これらのモデルは、目的関数が事実整合性をほとんど捉えない完全教師付き学習で訓練される。
我々は,これらのモデルを強化学習により微調整し,応答とペルソナ事実の一貫性と意味的妥当性を明確に把握する効率的な報酬関数を提案する。
我々のペルソナチャットコーパスにおける自動的および人為的評価は、我々のアプローチが、言語品質を維持しながら、監督対象のペルソナ事実と実際に一致した応答率を高めることを確認した。
関連論文リスト
- When Large Language Models contradict humans? Large Language Models' Sycophantic Behaviour [0.8133739801185272]
主観的意見と文を含む問合せに対して,Large Language Models (LLMs) がサイコファン傾向を示すことを示す。
様々なスケールのLCMは、正しい回答を提供する自信を示すことによって、ユーザのヒントに従わないように思われる。
論文 参考訳(メタデータ) (2023-11-15T22:18:33Z) - Using Large Language Models to Provide Explanatory Feedback to Human
Tutors [3.2507682694499582]
オンライン授業において,教師にリアルタイムフィードバックを提供するための2つのアプローチを提案する。
このワーク・イン・プログレス(英語版)は、効果的な、あるいは努力に基づく修正フィードバックのためのバイナリ分類においてかなりの精度を示す。
より具体的には、大言語モデルに精通した名前付きエンティティ認識を用いた説明的フィードバックを提供するための拡張されたアプローチについて紹介する。
論文 参考訳(メタデータ) (2023-06-27T14:19:12Z) - FRSUM: Towards Faithful Abstractive Summarization via Enhancing Factual
Robustness [56.263482420177915]
我々は,既存のシステムの忠実さを,事実的堅牢性という新たな視点から研究する。
本研究では,新たなトレーニング戦略,すなわちFRSUMを提案し,そのモデルに対して,暗黙の対角的サンプルと暗黙の対向的摂動の両方を防御するように指導する。
論文 参考訳(メタデータ) (2022-11-01T06:09:00Z) - Analyzing and Evaluating Faithfulness in Dialogue Summarization [67.07947198421421]
まず,対話要約の忠実度に関するきめ細かな人間の分析を行い,生成した要約の35%以上がソース対話に忠実に一致していないことを観察する。
そこで本研究では,ルールベース変換により生成した複数選択質問を用いたモデルレベルの忠実度評価手法を提案する。
論文 参考訳(メタデータ) (2022-10-21T07:22:43Z) - Rome was built in 1776: A Case Study on Factual Correctness in
Knowledge-Grounded Response Generation [18.63673852470077]
3つの異なる応答タイプを識別するために,人間のアノテーション設定を提案する。
私たちは、ウィザード・オブ・ウィキペディアのデータセットから適応したConv-FEVERという新しいコーパスを自動生成します。
論文 参考訳(メタデータ) (2021-10-11T17:48:11Z) - I Beg to Differ: A study of constructive disagreement in online
conversations [15.581515781839656]
コンテンツ論争を含む7,425のwikipediaトークページ会話のコーパスを構築した。
モデレーターによる調停に不一致がエスカレートされるかどうかを予測するタスクを定義します。
我々は,様々なニューラルモデルを開発し,会話の構造を考慮すれば予測精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-26T16:36:43Z) - Dialogue Response Ranking Training with Large-Scale Human Feedback Data [52.12342165926226]
ソーシャルメディアのフィードバックデータを利用して、フィードバック予測のための大規模なトレーニングデータセットを構築します。
我々は,1300万対の人間のフィードバックデータに基づくGPT-2モデルであるDialogRPTを訓練した。
我々のランキングは、Redditのフィードバックを予測する上で、従来のダイアログの難易度ベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-15T10:50:05Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - Posterior-GAN: Towards Informative and Coherent Response Generation with
Posterior Generative Adversarial Network [38.576579498740244]
我々は,新しいエンコーダデコーダに基づく生成逆学習フレームワーク,Posterior Generative Adversarial Network (Posterior-GAN)を提案する。
実験結果から,本手法は自動評価と人的評価の両方において,生成した応答の情報性とコヒーレンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2020-03-04T11:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。