論文の概要: MultiTurnCleanup: A Benchmark for Multi-Turn Spoken Conversational
Transcript Cleanup
- arxiv url: http://arxiv.org/abs/2305.12029v1
- Date: Fri, 19 May 2023 22:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:16:08.423178
- Title: MultiTurnCleanup: A Benchmark for Multi-Turn Spoken Conversational
Transcript Cleanup
- Title(参考訳): MultiTurnCleanup: マルチTurnの会話トランスクリプトクリーンアップのためのベンチマーク
- Authors: Hua Shen, Vicky Zayats, Johann C. Rocholl, Daniel D. Walker, Dirk
Padfield
- Abstract要約: 本研究は,会話音声の書き起こしに革新的なマルチトゥルンクリーンアップタスクを提案する。
我々は、高品質なデータセットを収集し、広範囲なデータ分析を提供するために、データラベリングスキーマを設計する。
- 参考スコア(独自算出の注目度): 5.533295092033807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current disfluency detection models focus on individual utterances each from
a single speaker. However, numerous discontinuity phenomena in spoken
conversational transcripts occur across multiple turns, hampering human
readability and the performance of downstream NLP tasks. This study addresses
these phenomena by proposing an innovative Multi-Turn Cleanup task for spoken
conversational transcripts and collecting a new dataset, MultiTurnCleanup1. We
design a data labeling schema to collect the high-quality dataset and provide
extensive data analysis. Furthermore, we leverage two modeling approaches for
experimental evaluation as benchmarks for future research.
- Abstract(参考訳): 現在のディフルエンシ検出モデルは、1つの話者からの個々の発話に焦点を当てている。
しかし,複数回にまたがる会話書き起こしにおける不連続現象が多数発生し,人間の可読性を阻害し,下流のNLPタスクの性能が低下する。
本研究は,会話の書き起こしに革新的なマルチトゥルンクリーンアップタスクを提案し,新たなデータセットであるMultiTurnCleanup1を収集することによって,これらの現象に対処する。
データラベリングスキーマを設計し,高品質なデータセットを収集し,広範なデータ分析を行う。
さらに,2つのモデリング手法を実験的評価に活用し,今後の研究のベンチマークを行う。
関連論文リスト
- Conversation Disentanglement with Bi-Level Contrastive Learning [26.707584899718288]
既存の手法には2つの主な欠点がある。まず、ペアの発話関係を過度に強調するが、発話-文脈関係モデルに不適切な注意を払う。
本稿では,2段階のコントラスト学習に基づく一般的な不協和モデルを提案する。このモデルでは,同一セッションに近づき,各発話が表現空間内のクラスタ化されたセッションプロトタイプに近づくように促す。
論文 参考訳(メタデータ) (2022-10-27T08:41:46Z) - Analysis of Joint Speech-Text Embeddings for Semantic Matching [3.6423306784901235]
ペア音声と書き起こし入力の距離を最小化することにより,セマンティックマッチングのために訓練された共同音声テキスト埋め込み空間について検討する。
我々は,事前学習とマルチタスクの両方のシナリオを通じて,音声認識を組み込む方法を拡張した。
論文 参考訳(メタデータ) (2022-04-04T04:50:32Z) - Findings on Conversation Disentanglement [28.874162427052905]
発話から発話への分類と発話からスレッドへの分類を学習する学習モデルを構築した。
Ubuntu IRCデータセットの実験は、このアプローチが従来の欲求的アプローチを上回る可能性があることを示している。
論文 参考訳(メタデータ) (2021-12-10T05:54:48Z) - Leveraging Pretrained Models for Automatic Summarization of
Doctor-Patient Conversations [9.184616102949228]
BARTを微調整することで,限られたトレーニングデータを用いて,流動的で適切な要約を生成することができることを示す。
慎重に選択された微調整データセットを用いて、この手法はより長い会話を扱うのに効果的であることが示されている。
論文 参考訳(メタデータ) (2021-09-24T20:18:59Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Re-framing Incremental Deep Language Models for Dialogue Processing with
Multi-task Learning [14.239355474794142]
本稿では,1つのインクリメンタル対話処理モデルのトレーニングを可能にするマルチタスク学習フレームワークを提案する。
これらのタスクは、タスクからのノイズの重大度に依存する各タスクの最適貢献により、互いに正の帰納バイアスを与えることを示す。
論文 参考訳(メタデータ) (2020-11-13T04:31:51Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Semi-supervised Learning for Multi-speaker Text-to-speech Synthesis
Using Discrete Speech Representation [125.59372403631006]
マルチ話者テキスト音声(TTS)のための半教師付き学習手法を提案する。
マルチスピーカTTSモデルは、離散音声表現を備えたエンコーダデコーダフレームワークを用いて、未転写音声から学習することができる。
提案した半教師あり学習手法は,音声データの一部がうるさい場合にも有効であることがわかった。
論文 参考訳(メタデータ) (2020-05-16T15:47:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。