論文の概要: CantTalkAboutThis: Aligning Language Models to Stay on Topic in Dialogues
- arxiv url: http://arxiv.org/abs/2404.03820v1
- Date: Thu, 4 Apr 2024 22:31:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 17:25:49.800479
- Title: CantTalkAboutThis: Aligning Language Models to Stay on Topic in Dialogues
- Title(参考訳): CantTalkAboutThis: 対話におけるトピックに留まる言語モデルの調整
- Authors: Makesh Narsimhan Sreedhar, Traian Rebedea, Shaona Ghosh, Christopher Parisien,
- Abstract要約: CantTalkAboutこのデータセットは、異なるドメインからの幅広い会話トピックに関する合成対話で構成されている。
このデータセット上の微調整言語モデルは、割り当てられたロールから逸脱する耐性を高めるのに役立ちます。
予備的な観察では、このデータセット上でのトレーニングモデルが、タスクに追従するきめ細かい命令のパフォーマンスを向上させることが示唆されている。
- 参考スコア(独自算出の注目度): 2.8400733983528155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in instruction-tuning datasets have predominantly focused on specific tasks like mathematical or logical reasoning. There has been a notable gap in data designed for aligning language models to maintain topic relevance in conversations - a critical aspect for deploying chatbots to production. We introduce the CantTalkAboutThis dataset to help language models remain focused on the subject at hand during task-oriented interactions. It consists of synthetic dialogues on a wide range of conversation topics from different domains. These dialogues are interspersed with distractor turns that intentionally divert the chatbot from the predefined topic. Fine-tuning language models on this dataset helps make them resilient to deviating from the role assigned and improves their ability to maintain topical coherence compared to general-purpose instruction-tuned LLMs like GPT-4-turbo and Mixtral-Instruct. Additionally, preliminary observations suggest that training models on this dataset also enhance their performance on fine-grained instruction following tasks.
- Abstract(参考訳): 命令チューニングデータセットの最近の進歩は、主に数学的または論理的推論のような特定のタスクに焦点を当てている。
会話におけるトピック関連性を維持するために言語モデルを調整するように設計されたデータには、注目すべきギャップがある。
我々はCantTalkAboutThisデータセットを導入し、タスク指向インタラクションの間、言語モデルが対象に焦点を合わせるのを助ける。
異なるドメインからの幅広い会話トピックに関する合成対話で構成されている。
これらの対話は、事前に定義されたトピックからチャットボットを意図的に逸脱させるイントラクタ・ターンによって分散される。
このデータセット上の微調整言語モデルは、GPT-4-turboやMixtral-Instructのような汎用的な命令チューニングLLMと比較して、割り当てられた役割から逸脱し、トピックコヒーレンスを維持する能力を向上させるのに役立つ。
さらに、予備的な観察では、このデータセットのトレーニングモデルが、タスクに追従するきめ細かい命令のパフォーマンスを向上させることも示唆されている。
関連論文リスト
- MP2D: An Automated Topic Shift Dialogue Generation Framework Leveraging
Knowledge Graphs [15.876075659237722]
Multi-Passage to Dialogue (MP2D) は、自然なトピック遷移を伴う質問応答データセットを生成する。
MP2Dは対話内のトピックの流れをマッピングし、人間の会話のダイナミクスを効果的に反映する。
本研究では,トピックシフト対話のための新しいベンチマークTS-WikiDialogを紹介する。
論文 参考訳(メタデータ) (2024-03-09T06:28:48Z) - SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - Conversation Chronicles: Towards Diverse Temporal and Relational
Dynamics in Multi-Session Conversations [9.249662593315541]
我々は,長期会話設定を実装するために,新たに100万件の多セッション対話データセットであるConversation Chroniclesを導入する。
会話年代記の対話エピソードは、一貫性と一貫した相互作用を維持しながら、それらの特性を反映していることを示す。
また、時系列要約と対話生成モジュールで構成されるReBotと呼ばれる対話モデルを提案する。
論文 参考訳(メタデータ) (2023-10-20T11:06:21Z) - Multi-Granularity Prompts for Topic Shift Detection in Dialogue [13.739991183173494]
対話トピックシフト検出の目標は、会話中の現在のトピックが変更されたか、変更する必要があるかを特定することである。
従来の研究は、事前訓練されたモデルを用いて発話を符号化するトピックシフトの検出に重点を置いていた。
我々は,複数粒度での対話,すなわちラベル,ターン,トピックから話題情報を抽出するために,プロンプトベースのアプローチを採用する。
論文 参考訳(メタデータ) (2023-05-23T12:35:49Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - TOD-DA: Towards Boosting the Robustness of Task-oriented Dialogue
Modeling on Spoken Conversations [24.245354500835465]
本稿では,音声対話におけるタスク指向対話モデリングの堅牢性を高めるために,新しいモデルに依存しないデータ拡張パラダイムを提案する。
本手法は,音声対話におけるタスク指向対話モデリングのベンチマークであるDSTC10 Track2の両タスクにおいて,第1位となった。
論文 参考訳(メタデータ) (2021-12-23T10:04:25Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。