論文の概要: An Unsupervised Dialogue Topic Segmentation Model Based on Utterance Rewriting
- arxiv url: http://arxiv.org/abs/2409.07672v1
- Date: Thu, 12 Sep 2024 00:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 18:11:59.875089
- Title: An Unsupervised Dialogue Topic Segmentation Model Based on Utterance Rewriting
- Title(参考訳): 発話書き換えに基づく教師なし対話トピックセグメンテーションモデル
- Authors: Xia Hou, Qifeng Li, Tongliang Li,
- Abstract要約: 本研究では,Utterance Rewriting(UR)技術と教師なし学習アルゴリズムを組み合わせた,教師なし対話トピックセグメンテーション手法を提案する。
The proposed Discourse Rewriting Topic Model (UR-DTS) is significantly improves the accuracy of topic segmentation。
- 参考スコア(独自算出の注目度): 3.5399864027190366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dialogue topic segmentation plays a crucial role in various types of dialogue modeling tasks. The state-of-the-art unsupervised DTS methods learn topic-aware discourse representations from conversation data through adjacent discourse matching and pseudo segmentation to further mine useful clues in unlabeled conversational relations. However, in multi-round dialogs, discourses often have co-references or omissions, leading to the fact that direct use of these discourses for representation learning may negatively affect the semantic similarity computation in the neighboring discourse matching task. In order to fully utilize the useful cues in conversational relations, this study proposes a novel unsupervised dialog topic segmentation method that combines the Utterance Rewriting (UR) technique with an unsupervised learning algorithm to efficiently utilize the useful cues in unlabeled dialogs by rewriting the dialogs in order to recover the co-referents and omitted words. Compared with existing unsupervised models, the proposed Discourse Rewriting Topic Segmentation Model (UR-DTS) significantly improves the accuracy of topic segmentation. The main finding is that the performance on DialSeg711 improves by about 6% in terms of absolute error score and WD, achieving 11.42% in terms of absolute error score and 12.97% in terms of WD. on Doc2Dial the absolute error score and WD improves by about 3% and 2%, respectively, resulting in SOTA reaching 35.17% in terms of absolute error score and 38.49% in terms of WD. This shows that the model is very effective in capturing the nuances of conversational topics, as well as the usefulness and challenges of utilizing unlabeled conversations.
- Abstract(参考訳): 対話トピックセグメンテーションは、様々なタイプの対話モデリングタスクにおいて重要な役割を果たす。
最先端の教師なしDTS手法は、隣接した談話マッチングと擬似セグメンテーションを通じて、会話データからトピック認識の談話表現を学習し、ラベルのない会話関係における有用な手がかりをさらに掘り下げる。
しかし、複数ラウンドの対話では、談話は共参照や省略がしばしばあり、これらの談話の表現学習への直接的利用は、近隣の談話マッチングタスクにおける意味的類似性計算に悪影響を及ぼす可能性があるという事実に繋がる。
本研究は,会話関係における有用な手がかりを十分に活用するために,発話文と省略語を復元するために,発話文の書き直し(UR)技術と教師なし学習アルゴリズムを併用し,ダイアログの書き直しにより,ラベルなしダイアログにおける有用な手がかりを効率的に活用する,教師なしダイアログトピックセグメンテーション手法を提案する。
既存の教師なしモデルと比較すると,提案した談話書き換えトピックセグメンテーションモデル (UR-DTS) はトピックセグメンテーションの精度を大幅に向上させる。
主な発見は、DialSeg711の性能が絶対誤差スコアとWDで6%向上し、絶対誤差スコアで11.42%、WDで12.97%向上したことである。
Doc2Dialでは、絶対誤差スコアとWDは、それぞれ3%と2%改善し、SOTAは絶対誤差スコアで35.17%、WDで38.49%に達した。
このことから,このモデルは会話トピックのニュアンスを捉えるのに非常に効果的であり,ラベルのない会話を活用する上での有用性と課題も示している。
関連論文リスト
- Exploring the Factual Consistency in Dialogue Comprehension of Large Language Models [51.75805497456226]
本研究は,対話要約タスクの助けを借りて,事実整合性の問題に焦点を当てる。
評価の結果,LLMが生成する要約の26.8%が事実整合性を含んでいることがわかった。
LLMの対話理解能力を高めるために,自動構築マルチタスクデータを用いた微調整パラダイムを提案する。
論文 参考訳(メタデータ) (2023-11-13T09:32:12Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - SuperDialseg: A Large-scale Dataset for Supervised Dialogue Segmentation [55.82577086422923]
文書地上対話の助けを借りて,対話のセグメンテーションポイントを実現可能な定義を提供する。
我々は,9,478の対話を含むSuperDialsegと呼ばれる大規模教師付きデータセットをリリースする。
また、対話セグメンテーションタスクの5つのカテゴリにまたがる18のモデルを含むベンチマークも提供する。
論文 参考訳(メタデータ) (2023-05-15T06:08:01Z) - Unsupervised Dialogue Topic Segmentation with Topic-aware Utterance
Representation [51.22712675266523]
対話トピック(DTS)は、様々な対話モデリングタスクにおいて重要な役割を果たす。
本稿では,ラベルなし対話データからトピック対応発話表現を学習する,教師なしDSSフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T11:35:23Z) - Dial2vec: Self-Guided Contrastive Learning of Unsupervised Dialogue
Embeddings [41.79937481022846]
教師なし対話の埋め込みを学習するタスクについて紹介する。
事前学習された単語や文の埋め込みや、事前学習された言語モデルによるエンコーディングといったトライアル的なアプローチは、実現可能であることが示されている。
本稿では,Dial2vecという自己指導型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-27T11:14:06Z) - TOD-DA: Towards Boosting the Robustness of Task-oriented Dialogue
Modeling on Spoken Conversations [24.245354500835465]
本稿では,音声対話におけるタスク指向対話モデリングの堅牢性を高めるために,新しいモデルに依存しないデータ拡張パラダイムを提案する。
本手法は,音声対話におけるタスク指向対話モデリングのベンチマークであるDSTC10 Track2の両タスクにおいて,第1位となった。
論文 参考訳(メタデータ) (2021-12-23T10:04:25Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - What Helps Transformers Recognize Conversational Structure? Importance
of Context, Punctuation, and Labels in Dialog Act Recognition [41.1669799542627]
2つの事前訓練されたトランスフォーマーモデルを適用し、対話行動のシーケンスとして会話文を構造化する。
より広範な会話コンテキストが組み込まれていることは、多くの対話行動クラスを曖昧にするのに役立ちます。
詳細な分析により、その欠如で観察された特定のセグメンテーションパターンが明らかになる。
論文 参考訳(メタデータ) (2021-07-05T21:56:00Z) - Contextual Dialogue Act Classification for Open-Domain Conversational
Agents [10.576497782941697]
会話におけるユーザ発話の一般的な意図を分類することは、会話エージェントのための自然言語理解(NLU)の重要なステップである。
本稿では,文脈対話行為分類のための簡易かつ効果的な深層学習手法であるCDAC(Contextual Dialogue Act)を提案する。
我々は、人-機械対話における対話行動を予測するために、トランスファーラーニングを用いて人間-機械対話で訓練されたモデルを適用する。
論文 参考訳(メタデータ) (2020-05-28T06:48:10Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。