論文の概要: Conversational Feedback in Scripted versus Spontaneous Dialogues: A
Comparative Analysis
- arxiv url: http://arxiv.org/abs/2309.15656v1
- Date: Wed, 27 Sep 2023 13:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 13:34:36.249573
- Title: Conversational Feedback in Scripted versus Spontaneous Dialogues: A
Comparative Analysis
- Title(参考訳): スクリプト対自発対話における会話フィードバックの比較分析
- Authors: Ildik\'o Pil\'an, Laurent Pr\'evot, Hendrik Buschmeier, Pierre Lison
- Abstract要約: 本稿では,字幕および自発会話におけるコミュニケーションフィードバック現象の定量的解析を行う。
英語、フランス語、ドイツ語、ハンガリー語、イタリア語、日本語、ノルウェー語、中国語の対話データに基づいて、語彙統計と分類結果の両方を抽出する。
- 参考スコア(独自算出の注目度): 1.9936075659851884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scripted dialogues such as movie and TV subtitles constitute a widespread
source of training data for conversational NLP models. However, the linguistic
characteristics of those dialogues are notably different from those observed in
corpora of spontaneous interactions. This difference is particularly marked for
communicative feedback and grounding phenomena such as backchannels,
acknowledgments, or clarification requests. Such signals are known to
constitute a key part of the conversation flow and are used by the dialogue
participants to provide feedback to one another on their perception of the
ongoing interaction. This paper presents a quantitative analysis of such
communicative feedback phenomena in both subtitles and spontaneous
conversations. Based on dialogue data in English, French, German, Hungarian,
Italian, Japanese, Norwegian and Chinese, we extract both lexical statistics
and classification outputs obtained with a neural dialogue act tagger. Two main
findings of this empirical study are that (1) conversational feedback is
markedly less frequent in subtitles than in spontaneous dialogues and (2)
subtitles contain a higher proportion of negative feedback. Furthermore, we
show that dialogue responses generated by large language models also follow the
same underlying trends and include comparatively few occurrences of
communicative feedback, except when those models are explicitly fine-tuned on
spontaneous dialogues.
- Abstract(参考訳): 映画やテレビの字幕などのスクリプトによる対話は、対話型NLPモデルのトレーニングデータとして広く使われている。
しかし、これらの対話の言語的特徴は、自発的な相互作用のコーパスで観察されるものとは異なる。
この違いは、特にコミュニケーションフィードバックや、バックチャネル、認識要求、明確化要求といった接地現象に顕著である。
このような信号は会話フローの重要な部分を構成することが知られており、対話参加者が進行中の対話に対する認識について相互にフィードバックを提供するために使用される。
本稿では,字幕と自発会話の両方において,このようなコミュニケーションフィードバック現象を定量的に分析する。
英語,フランス語,ドイツ語,ハンガリー語,イタリア語,日本語,ノルウェー語,中国語の対話データに基づいて,語彙統計と分類結果の両方をニューラルダイアログタグで抽出する。
本研究の主な発見は,(1) 会話のフィードバックが自発的な対話よりも字幕で顕著に少ないこと,(2) 字幕では負のフィードバックの割合が高いこと,である。
さらに,大規模言語モデルが生成する対話応答は,自発的対話において明示的に微調整されている場合を除き,基礎となる傾向と同じであり,コミュニケーションフィードバックの発生は比較的少ない。
関連論文リスト
- Are LLMs Robust for Spoken Dialogues? [10.855403629160921]
大規模な事前学習型言語モデルでは、さまざまな下流タスクで最先端のパフォーマンスが実証されている。
タスク指向対話に関する公開データセットとベンチマークのほとんどは、書かれた会話に重点を置いている。
DSTC11テストセットにおける音声タスク指向対話におけるLLMの性能評価を行った。
論文 参考訳(メタデータ) (2024-01-04T14:36:38Z) - Towards human-like spoken dialogue generation between AI agents from
written dialogue [8.4989907582951]
本研究では,CHATS - CHATS-CHATty Agents Text-to-Speechを提案する。
本システムでは,話者側とリスナー側の両方に対して,話者側からの書き起こしのみを用いて同時に音声を生成することができる。
論文 参考訳(メタデータ) (2023-10-02T11:03:20Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z) - Interview: A Large-Scale Open-Source Corpus of Media Dialog [11.28504775964698]
本稿では,ニュースインタビューの書き起こしから収集した大規模(105Kの会話)メディアダイアログデータセット「Interview」を紹介する。
既存の会話データに対する大規模プロキシと比較して、我々のデータセットでトレーニングされた言語モデルは、ドメイン外のゼロショットのパフォーマンスが向上する。
「インタービュー」には各ターンの話者ロールアノテーションが含まれており、エンゲージメント・レスポンシブ・ダイアログシステムの開発を容易にする。
論文 参考訳(メタデータ) (2020-04-07T02:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。