論文の概要: A Large Collection of Model-generated Contradictory Responses for Consistency-aware Dialogue Systems
- arxiv url: http://arxiv.org/abs/2403.12500v1
- Date: Tue, 19 Mar 2024 07:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 15:02:36.261997
- Title: A Large Collection of Model-generated Contradictory Responses for Consistency-aware Dialogue Systems
- Title(参考訳): 一貫性を考慮した対話システムのためのモデル生成コントラクタ応答の大規模コレクション
- Authors: Shiki Sato, Reina Akama, Jun Suzuki, Kentaro Inui,
- Abstract要約: 反応生成モデルの矛盾の大規模なデータセットを初めて構築する。
モデル生成矛盾の特性に関する貴重な知見を得る。
このデータセットは、データ駆動の矛盾抑制手法の性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 32.31398233789495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mitigating the generation of contradictory responses poses a substantial challenge in dialogue response generation. The quality and quantity of available contradictory response data play a vital role in suppressing these contradictions, offering two significant benefits. First, having access to large contradiction data enables a comprehensive examination of their characteristics. Second, data-driven methods to mitigate contradictions may be enhanced with large-scale contradiction data for training. Nevertheless, no attempt has been made to build an extensive collection of model-generated contradictory responses. In this paper, we build a large dataset of response generation models' contradictions for the first time. Then, we acquire valuable insights into the characteristics of model-generated contradictions through an extensive analysis of the collected responses. Lastly, we also demonstrate how this dataset substantially enhances the performance of data-driven contradiction suppression methods.
- Abstract(参考訳): 矛盾する応答の生成を緩和することは、対話応答の生成において重大な課題となる。
利用可能な矛盾応答データの質と量は、これらの矛盾を抑制する上で重要な役割を担い、2つの重要な利点を提供している。
第一に、大きな矛盾データにアクセスすることで、それらの特性を総合的に調べることができる。
第二に、矛盾を緩和するためのデータ駆動手法は、訓練のための大規模な矛盾データによって強化される可能性がある。
それでも、モデル生成の矛盾する応答の広範なコレクションを構築する試みは行われていない。
本稿では, 応答生成モデルの矛盾点の大規模なデータセットを初めて構築する。
そして, 得られた応答を広範囲に解析することにより, モデル生成矛盾の特性に関する貴重な知見を得る。
最後に,このデータセットがデータ駆動型矛盾抑制手法の性能を大幅に向上させることを示す。
関連論文リスト
- MultiAgent Collaboration Attack: Investigating Adversarial Attacks in Large Language Model Collaborations via Debate [24.92465108034783]
大規模言語モデル(LLM)は、個別に作業する場合に、現在のベンチマークで例外的な結果を示す。
パラメータサイズと推論時間の短縮とともに、それらの能力の進歩は、これらのモデルをエージェントとしての使用を促進する。
敵の影響下での議論を通じて協調するモデルのネットワークの挙動を評価する。
論文 参考訳(メタデータ) (2024-06-20T20:09:37Z) - SparseCL: Sparse Contrastive Learning for Contradiction Retrieval [87.02936971689817]
コントラディション検索(Contradiction Search)とは、クエリの内容に明示的に異を唱える文書を識別し、抽出することである。
類似性探索やクロスエンコーダモデルといった既存の手法には、大きな制限がある。
文間の微妙で矛盾したニュアンスを保存するために特別に訓練された文埋め込みを利用するSparseCLを導入する。
論文 参考訳(メタデータ) (2024-06-15T21:57:03Z) - Evaluating Robustness of Dialogue Summarization Models in the Presence
of Naturally Occurring Variations [13.749495524988774]
実生活変動が最先端の対話要約モデルに与える影響を系統的に検討する。
発話レベルの摂動は、誤りや言語の変化によって個々の発話を変更するもので、対話レベルの摂動は非形式的交換を加えるものである。
細調整モデルと命令調整モデルの両方が入力のバリエーションの影響を受けており、後者はより感受性が高い。
論文 参考訳(メタデータ) (2023-11-15T05:11:43Z) - Generating Prototypes for Contradiction Detection Using Large Language
Models and Linguistic Rules [1.6497679785422956]
矛盾検出のための新しいデータ生成手法を提案する。
我々は生成モデルに、特定の矛盾型の記述に関して矛盾するステートメントを作成するよう指示する。
補助的なアプローチとして、単純な矛盾を構築するために言語規則を用いる。
論文 参考訳(メタデータ) (2023-10-23T09:07:27Z) - N-best Response-based Analysis of Contradiction-awareness in Neural
Response Generation Models [39.67615440713629]
本研究は,n-bestリストの一貫性を用いて,ニューラルネットワーク生成モデルの文脈矛盾認識を定量的に分析する。
近年のニューラルレスポンス生成モデルと方法論の矛盾を実証し,その特性と限界について考察した。
論文 参考訳(メタデータ) (2022-08-04T10:58:32Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - I like fish, especially dolphins: Addressing Contradictions in Dialogue
Modeling [104.09033240889106]
DialoguE Contradiction Detection Task(DECODE)と、人間とロボットの矛盾した対話の両方を含む新しい会話データセットを紹介します。
次に、事前学習したトランスフォーマーモデルを用いて、定型的非構造的アプローチと矛盾検出を行う構造的発話に基づくアプローチを比較する。
論文 参考訳(メタデータ) (2020-12-24T18:47:49Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。