論文の概要: Large-Context Conversational Representation Learning: Self-Supervised
Learning for Conversational Documents
- arxiv url: http://arxiv.org/abs/2102.08147v1
- Date: Tue, 16 Feb 2021 13:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:19:29.163395
- Title: Large-Context Conversational Representation Learning: Self-Supervised
Learning for Conversational Documents
- Title(参考訳): 大規模コンテキスト会話表現学習:会話文書の自己監督学習
- Authors: Ryo Masumura, Naoki Makishima, Mana Ihori, Akihiko Takashima, Tomohiro
Tanaka, Shota Orihashi
- Abstract要約: LC-CRL(Large-context conversational representation learning)は、会話文書に特化した自己教師型学習法である。
LC-CRLにおける自己監督学習タスクは、周囲のすべての発話を用いて発話の推定を含む。
コンタクトセンター会話データセットを用いたシーンセグメンテーションタスクの実験の結果,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 28.51624095262708
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel self-supervised learning method for handling
conversational documents consisting of transcribed text of human-to-human
conversations. One of the key technologies for understanding conversational
documents is utterance-level sequential labeling, where labels are estimated
from the documents in an utterance-by-utterance manner. The main issue with
utterance-level sequential labeling is the difficulty of collecting labeled
conversational documents, as manual annotations are very costly. To deal with
this issue, we propose large-context conversational representation learning
(LC-CRL), a self-supervised learning method specialized for conversational
documents. A self-supervised learning task in LC-CRL involves the estimation of
an utterance using all the surrounding utterances based on large-context
language modeling. In this way, LC-CRL enables us to effectively utilize
unlabeled conversational documents and thereby enhances the utterance-level
sequential labeling. The results of experiments on scene segmentation tasks
using contact center conversational datasets demonstrate the effectiveness of
the proposed method.
- Abstract(参考訳): 本稿では,人間間会話の書き起こしテキストからなる会話文書を扱うための,新しい自己教師付き学習手法を提案する。
会話文書を理解するための重要な技術の1つは、発話レベルのシーケンシャルラベリングであり、そこでは文書からラベルを発話ごとに推定する。
発話レベルのシーケンシャルラベリングの主な問題は、手動アノテーションが非常に高価であるため、ラベル付き会話文書の収集が困難である。
そこで本研究では,対話文書に特化した自己監督型学習手法である大規模会話表現学習(LC-CRL)を提案する。
LC-CRLにおける自己監督学習タスクは、大文脈言語モデリングに基づく周囲のすべての発話を用いた発話の推定を含む。
このように、LC-CRLはラベルのない会話文書を効果的に活用し、発話レベルのシーケンシャルラベリングを強化します。
コンタクトセンター会話データセットを用いたシーンセグメンテーションタスクの実験の結果,提案手法の有効性が示された。
関連論文リスト
- CKERC : Joint Large Language Models with Commonsense Knowledge for
Emotion Recognition in Conversation [0.0]
会話における感情認識(英: Emotion Recognition in conversation、ERC)とは、会話の文脈における発話の感情を予測するタスクである。
会話における感情認識のための共通知識フレームワークであるCKERCを提案する。
論文 参考訳(メタデータ) (2024-03-12T02:37:11Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - SuperDialseg: A Large-scale Dataset for Supervised Dialogue Segmentation [55.82577086422923]
文書地上対話の助けを借りて,対話のセグメンテーションポイントを実現可能な定義を提供する。
我々は,9,478の対話を含むSuperDialsegと呼ばれる大規模教師付きデータセットをリリースする。
また、対話セグメンテーションタスクの5つのカテゴリにまたがる18のモデルを含むベンチマークも提供する。
論文 参考訳(メタデータ) (2023-05-15T06:08:01Z) - Enhanced Knowledge Selection for Grounded Dialogues via Document
Semantic Graphs [123.50636090341236]
本稿では,背景知識文書を自動的に文書意味グラフに変換することを提案する。
文書意味グラフは文ノードを用いて文レベル情報を保存し,文間の概念接続を提供する。
本実験により,HolEにおける知識選択タスクとエンドツーエンド応答生成タスクの双方において,意味グラフに基づく知識選択が文選択ベースラインよりも改善されることが示されている。
論文 参考訳(メタデータ) (2022-06-15T04:51:32Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - Zero-shot Cross-lingual Conversational Semantic Role Labeling [30.28068025468505]
ゼロショットクロスランガルCSRLを実現するための効果的な手法を提案する。
本モデルは,階層エンコーダを用いた言語に依存しない,対話型構造認識,意味的にリッチな表現を暗黙的に学習する。
英語における質問文書き直しタスクや,英語,ドイツ語,日本語における多方向対話応答生成タスクなど,中国語以外の会話タスクに対するCSRLの有用性を確認した。
論文 参考訳(メタデータ) (2022-04-11T07:29:39Z) - Findings on Conversation Disentanglement [28.874162427052905]
発話から発話への分類と発話からスレッドへの分類を学習する学習モデルを構築した。
Ubuntu IRCデータセットの実験は、このアプローチが従来の欲求的アプローチを上回る可能性があることを示している。
論文 参考訳(メタデータ) (2021-12-10T05:54:48Z) - DIALKI: Knowledge Identification in Conversational Systems through
Dialogue-Document Contextualization [41.21012318918167]
本稿では,文書構造を利用して対話型文節エンコーディングを実現する知識識別モデルを提案する。
本稿では,2つの文書的会話データセット上でのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2021-09-10T05:40:37Z) - Spoken Style Learning with Multi-modal Hierarchical Context Encoding for
Conversational Text-to-Speech Synthesis [59.27994987902646]
歴史的会話から話し言葉のスタイルを学習する研究は、まだ初期段階にある。
歴史的会話の書き起こしのみが考慮され、歴史的スピーチの話し方を無視している。
マルチモーダル階層型コンテキスト符号化を用いた音声スタイル学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-11T08:33:52Z) - Self-supervised Dialogue Learning for Spoken Conversational Question
Answering [29.545937716796082]
音声対話質問応答(SCQA)では、複数の会話を含む固定された音声文書を検索して分析することにより、対応する質問に対する回答を生成する。
本研究では,不整合判定,挿入検出,質問予測などの自己教師付き学習手法を導入し,コア参照の解決と対話のコヒーレンスを明確に把握する。
提案手法は,従来の事前学習言語モデルと比較して,より一貫性があり,意味があり,適切な応答を提供する。
論文 参考訳(メタデータ) (2021-06-04T00:09:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。