論文の概要: We've had this conversation before: A Novel Approach to Measuring Dialog
Similarity
- arxiv url: http://arxiv.org/abs/2110.05780v1
- Date: Tue, 12 Oct 2021 07:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 23:35:19.116199
- Title: We've had this conversation before: A Novel Approach to Measuring Dialog
Similarity
- Title(参考訳): ダイアログの類似性を測定するための新しいアプローチ
- Authors: Ofer Lavi, Ella Rabinovich, Segev Shlomov, David Boaz, Inbal Ronen,
Ateret Anaby-Tavor
- Abstract要約: ダイアログ類似性のシナリオに対する編集距離距離の新たな適応法を提案する。
提案手法は,発話意味論,会話の流れ,参加者など,さまざまな会話の側面を考慮に入れている。
- 参考スコア(独自算出の注目度): 9.218829323265371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dialog is a core building block of human natural language interactions. It
contains multi-party utterances used to convey information from one party to
another in a dynamic and evolving manner. The ability to compare dialogs is
beneficial in many real world use cases, such as conversation analytics for
contact center calls and virtual agent design.
We propose a novel adaptation of the edit distance metric to the scenario of
dialog similarity. Our approach takes into account various conversation aspects
such as utterance semantics, conversation flow, and the participants. We
evaluate this new approach and compare it to existing document similarity
measures on two publicly available datasets. The results demonstrate that our
method outperforms the other approaches in capturing dialog flow, and is better
aligned with the human perception of conversation similarity.
- Abstract(参考訳): ダイアログは人間の自然言語相互作用の中核的な構成要素である。
動的かつ進化的な方法で、ある当事者から別の当事者に情報を伝えるために使用される多人数発話を含む。
ダイアログを比較する機能は、コンタクトセンター呼び出しの会話分析や仮想エージェント設計など、現実世界の多くのユースケースで有用である。
ダイアログ類似性のシナリオに対する編集距離距離の新たな適応法を提案する。
提案手法は発話意味論,会話フロー,参加者など,会話のさまざまな側面を考慮に入れる。
この新しいアプローチを評価し、2つの公開データセット上の既存の文書類似度尺度と比較する。
その結果,提案手法は対話フローをキャプチャする他の手法よりも優れており,会話の類似性に対する人間の認識に合致する可能性が示唆された。
関連論文リスト
- Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation [55.043492250775294]
本稿では,新しい対面音声対話モデルを提案する。
ユーザ入力から音声視覚音声を処理し、応答として音声視覚音声を生成する。
また,最初の大規模マルチモーダル音声対話コーパスであるMultiDialogを紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:48:36Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Unsupervised Dialogue Topic Segmentation with Topic-aware Utterance
Representation [51.22712675266523]
対話トピック(DTS)は、様々な対話モデリングタスクにおいて重要な役割を果たす。
本稿では,ラベルなし対話データからトピック対応発話表現を学習する,教師なしDSSフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T11:35:23Z) - Is this Dialogue Coherent? Learning from Dialogue Acts and Entities [82.44143808977209]
スイッチボード・コヒーレンス・コーパス(SWBD-Coh)コーパス(Switchboard Coherence corpus,SWBD-Coh)を作成する。
コーパスの統計的分析は、ターンコヒーレンス知覚がエンティティの分布パターンによってどのように影響を受けるかを示している。
DA情報とエンティティ情報を組み合わせたモデルでは,応答選択とターンコヒーレンス評価の両面で最高の性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-06-17T21:02:40Z) - Contextual Dialogue Act Classification for Open-Domain Conversational
Agents [10.576497782941697]
会話におけるユーザ発話の一般的な意図を分類することは、会話エージェントのための自然言語理解(NLU)の重要なステップである。
本稿では,文脈対話行為分類のための簡易かつ効果的な深層学習手法であるCDAC(Contextual Dialogue Act)を提案する。
我々は、人-機械対話における対話行動を予測するために、トランスファーラーニングを用いて人間-機械対話で訓練されたモデルを適用する。
論文 参考訳(メタデータ) (2020-05-28T06:48:10Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Dialogue-Based Relation Extraction [53.2896545819799]
本稿では,人間による対話型関係抽出(RE)データセットDialogREを提案する。
我々は,対話型タスクと従来のREタスクの類似点と相違点の分析に基づいて,提案課題において話者関連情報が重要な役割を担っていると論じる。
実験結果から,ベストパフォーマンスモデルにおける話者認識の拡張が,標準設定と会話評価設定の両方において向上することが示された。
論文 参考訳(メタデータ) (2020-04-17T03:51:57Z) - Local Contextual Attention with Hierarchical Structure for Dialogue Act
Recognition [14.81680798372891]
我々は,自己意図に基づく階層モデルを構築し,文内および文間情報をキャプチャする。
ダイアログの長さがパフォーマンスに影響することから,新たなダイアログセグメンテーション機構を導入する。
論文 参考訳(メタデータ) (2020-03-12T22:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。