論文の概要: Designing Precise and Robust Dialogue Response Evaluators
- arxiv url: http://arxiv.org/abs/2004.04908v2
- Date: Fri, 24 Apr 2020 04:01:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:53:57.329585
- Title: Designing Precise and Robust Dialogue Response Evaluators
- Title(参考訳): 高精度かつロバストな対話応答評価器の設計
- Authors: Tianyu Zhao, Divesh Lala, Tatsuya Kawahara
- Abstract要約: 我々は,参照自由評価器を構築し,半教師付きトレーニングと事前訓練言語モデルのパワーを活用することを提案する。
実験結果から,提案した評価器は人的判断と強い相関(>0.6)を達成できることが示された。
- 参考スコア(独自算出の注目度): 35.137244385158034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic dialogue response evaluator has been proposed as an alternative to
automated metrics and human evaluation. However, existing automatic evaluators
achieve only moderate correlation with human judgement and they are not robust.
In this work, we propose to build a reference-free evaluator and exploit the
power of semi-supervised training and pretrained (masked) language models.
Experimental results demonstrate that the proposed evaluator achieves a strong
correlation (> 0.6) with human judgement and generalizes robustly to diverse
responses and corpora. We open-source the code and data in
https://github.com/ZHAOTING/dialog-processing.
- Abstract(参考訳): 自動対話応答評価器は、自動メトリクスと人的評価の代替として提案されている。
しかし、既存の自動評価器は人間の判断と適度な相関しか得られず、堅牢ではない。
本研究では,参照のない評価器の構築と,半教師付きトレーニングと事前訓練(マスク)言語モデルの活用を提案する。
実験結果から,提案した評価器は人間の判断と強い相関(>0.6)を達成し,多様な応答やコーパスに頑健に一般化することが示された。
コードとデータはhttps://github.com/ZHAOTING/dialog-processing.comで公開しています。
関連論文リスト
- Learning and Evaluating Human Preferences for Conversational Head
Generation [101.89332968344102]
そこで我々は,異なる次元の定量的評価に基づいて,人間の嗜好を適合させる学習ベース評価尺度であるPreference Score(PS)を提案する。
PSは人間のアノテーションを必要とせずに定量的評価を行うことができる。
論文 参考訳(メタデータ) (2023-07-20T07:04:16Z) - Dialogue Evaluation with Offline Reinforcement Learning [2.580163308334609]
タスク指向対話システムは,自然言語対話によるユーザ目標達成を目的としている。
これらは、開発フェーズのすべてのイテレーションで達成不可能な、人間のユーザによって理想的に評価されます。
静的コーパスに基づく対話評価のためのオフライン強化学習を提案する。
論文 参考訳(メタデータ) (2022-09-02T08:32:52Z) - What is wrong with you?: Leveraging User Sentiment for Automatic Dialog
Evaluation [73.03318027164605]
本稿では,次のユーザの発話から自動的に抽出できる情報をプロキシとして利用して,前のシステム応答の質を測定することを提案する。
本モデルは,実際のユーザおよび有償ユーザから収集した音声と書面の両方のオープンドメインダイアログコーパスを一般化する。
論文 参考訳(メタデータ) (2022-03-25T22:09:52Z) - User Response and Sentiment Prediction for Automatic Dialogue Evaluation [69.11124655437902]
本稿では,次のユーザ発話の感情をターンレベル評価やダイアログレベル評価に利用することを提案する。
実験により,本モデルによる音声対話データセットと音声対話データセットの両方において,既存の自動評価指標よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2021-11-16T22:19:17Z) - Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy
Evaluation Approach [84.02388020258141]
強化学習におけるオフポリシ評価に基づく人間評価スコア推定のための新しいフレームワークであるENIGMAを提案する。
ENIGMAはいくつかの事前収集された経験データしか必要としないため、評価中にターゲットポリシーとのヒューマンインタラクションは不要である。
実験の結果,ENIGMAは人間の評価スコアと相関して既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-20T03:29:20Z) - How To Evaluate Your Dialogue System: Probe Tasks as an Alternative for
Token-level Evaluation Metrics [47.20761880464552]
生成的対話モデリングは言語モデリングタスクとして広く見なされている。
このタスクは、エージェントが入力テキストを複雑な自然言語で理解し、ユーザと意味のある対話を行うように要求する。
使用される自動メトリクスは、生成されたテキストの品質を、エージェントの全体的相互作用のプロキシとして評価する。
論文 参考訳(メタデータ) (2020-08-24T13:28:35Z) - Speaker Sensitive Response Evaluation Model [17.381658875470638]
本稿では,生成した応答と会話コンテキストとの類似性に基づく自動評価モデルを提案する。
ラベルのない会話コーパスからモデルパラメータを学習する。
我々のモデルは、追加の訓練なしに映画対話に適用できることが示される。
論文 参考訳(メタデータ) (2020-06-12T08:59:10Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。