論文の概要: Making a Long Story Short in Conversation Modeling
- arxiv url: http://arxiv.org/abs/2402.00143v1
- Date: Wed, 31 Jan 2024 19:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:39:09.544884
- Title: Making a Long Story Short in Conversation Modeling
- Title(参考訳): 会話モデリングにおける長い物語の短縮
- Authors: Yufei Tao, Tiernan Mines, Ameeta Agrawal
- Abstract要約: 本研究では,発話長の変動が,会話モデルによるその後の応答の質に及ぼす影響について検討する。
ある種の会話では、フォローアップ応答の品質に顕著な違いはなく、発話長を最大72%削減することができる。
- 参考スコア(独自算出の注目度): 5.785697934050656
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversation systems accommodate diverse users with unique personalities and
distinct writing styles. Within the domain of multi-turn dialogue modeling,
this work studies the impact of varied utterance lengths on the quality of
subsequent responses generated by conversation models. Using GPT-3 as the base
model, multiple dialogue datasets, and several metrics, we conduct a thorough
exploration of this aspect of conversational models. Our analysis sheds light
on the complex relationship between utterance lengths and the quality of
follow-up responses generated by dialogue systems. Empirical findings suggests
that, for certain types of conversations, utterance lengths can be reduced by
up to 72% without any noticeable difference in the quality of follow-up
responses.
- Abstract(参考訳): 会話システムは、ユニークなパーソナリティと異なる書き方を持つ多様なユーザーを収容する。
マルチターン対話モデリングの領域内では,会話モデルによって生成される応答の質に及ぼす発話長の影響について検討する。
GPT-3をベースモデル、複数の対話データセット、およびいくつかのメトリクスとして使用し、会話モデルのこの側面を徹底的に調査する。
本分析では,対話システムによって生成される発話長と追従応答の質の複雑な関係に光を当てる。
実験結果から,ある種の会話では,フォローアップ応答の質に顕著な違いが生じることなく,発話長を最大72%削減できることがわかった。
関連論文リスト
- SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - Dialogue Quality and Emotion Annotations for Customer Support
Conversations [7.218791626731783]
本稿では、二言語的顧客サポート会話の文脈における感情と会話品質に対する全体論的アノテーションアプローチを提案する。
これは、テキスト分類モデルの開発に、ユニークで価値のあるリソースを提供する。
論文 参考訳(メタデータ) (2023-11-23T10:56:14Z) - Evaluating Robustness of Dialogue Summarization Models in the Presence
of Naturally Occurring Variations [13.749495524988774]
実生活変動が最先端の対話要約モデルに与える影響を系統的に検討する。
発話レベルの摂動は、誤りや言語の変化によって個々の発話を変更するもので、対話レベルの摂動は非形式的交換を加えるものである。
細調整モデルと命令調整モデルの両方が入力のバリエーションの影響を受けており、後者はより感受性が高い。
論文 参考訳(メタデータ) (2023-11-15T05:11:43Z) - Mind the Gap Between Conversations for Improved Long-Term Dialogue
Generation [21.109006148673846]
GapChatは、セッション間の時間が異なるマルチセッション対話データセットである。
データセットはリアルタイムに構築されているが、話者の生活における出来事の進行をシミュレートして、長い時間間隔で発生する現実的な対話を生成する。
時間認識モデルは、選択したトピックと会話から得られる情報との関係を判断する指標において、より良いパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-10-24T00:12:38Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Learning Locality and Isotropy in Dialogue Modeling [28.743212772593335]
異方性と対話性のある特徴空間を構築するための単純な対話表現キャリブレーション法,すなわちSimDRCを提案する。
実験の結果,本手法は3つの対話課題における現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-05-29T06:48:53Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。