論文の概要: Findings on Conversation Disentanglement
- arxiv url: http://arxiv.org/abs/2112.05346v1
- Date: Fri, 10 Dec 2021 05:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 23:32:14.107407
- Title: Findings on Conversation Disentanglement
- Title(参考訳): 会話の絡み合いの発見
- Authors: Rongxin Zhu, Jey Han Lau, Jianzhong Qi
- Abstract要約: 発話から発話への分類と発話からスレッドへの分類を学習する学習モデルを構築した。
Ubuntu IRCデータセットの実験は、このアプローチが従来の欲求的アプローチを上回る可能性があることを示している。
- 参考スコア(独自算出の注目度): 28.874162427052905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversation disentanglement, the task to identify separate threads in
conversations, is an important pre-processing step in multi-party
conversational NLP applications such as conversational question answering and
conversation summarization. Framing it as a utterance-to-utterance
classification problem -- i.e. given an utterance of interest (UOI), find which
past utterance it replies to -- we explore a number of transformer-based models
and found that BERT in combination with handcrafted features remains a strong
baseline. We then build a multi-task learning model that jointly learns
utterance-to-utterance and utterance-to-thread classification. Observing that
the ground truth label (past utterance) is in the top candidates when our model
makes an error, we experiment with using bipartite graphs as a post-processing
step to learn how to best match a set of UOIs to past utterances. Experiments
on the Ubuntu IRC dataset show that this approach has the potential to
outperform the conventional greedy approach of simply selecting the highest
probability candidate for each UOI independently, indicating a promising future
research direction.
- Abstract(参考訳): 会話における異なるスレッドを識別するタスクである会話解離は、対話型質問応答や会話要約などの多人数会話型NLPアプリケーションにおいて重要な前処理ステップである。
発話から発話への分類問題(すなわち、興味の発話(UOI)を与えられた場合、どの発話が応答するかを判断する)として、多くのトランスフォーマーベースのモデルを調べ、手作りの特徴と組み合わせてBERTが強力なベースラインであることを発見した。
次に,発話間分類と発話間分類を共同で学習するマルチタスク学習モデルを構築した。
モデルが誤りを犯した際、基底真理ラベル(パスト発話)が上位候補にあることを確認し、二部グラフを後処理のステップとして使用して、UOIの集合を過去の発話にベストマッチする方法を学習する。
ubuntu ircデータセットにおける実験により、このアプローチは、各uoiの最も高い確率候補を個別に選択する従来の欲望アプローチに勝る可能性があり、将来有望な研究の方向性を示している。
関連論文リスト
- Improve Retrieval-based Dialogue System via Syntax-Informed Attention [46.79601705850277]
文内構文情報と文間構文情報の両方を考慮したSIA, Syntax-Informed Attentionを提案する。
提案手法を広範に使用した3つのベンチマークで評価し,対話応答選択における本手法の一般的な優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2023-03-12T08:14:16Z) - A Graph-Based Context-Aware Model to Understand Online Conversations [3.8345539498627437]
オンライン会話では、コメントや返信は、すぐに関連する情報以外の外部のコンテキストに基づいている可能性がある。
グラフウォークを用いて会話のより広いコンテキストを組み込む新しいグラフベースのディープラーニングアーキテクチャであるGraphNLIを提案する。
極性予測と擬似的ヘイトスピーチ検出という2つのタスクでGraphNLIを評価する。
論文 参考訳(メタデータ) (2022-11-16T20:51:45Z) - Conversation Disentanglement with Bi-Level Contrastive Learning [26.707584899718288]
既存の手法には2つの主な欠点がある。まず、ペアの発話関係を過度に強調するが、発話-文脈関係モデルに不適切な注意を払う。
本稿では,2段階のコントラスト学習に基づく一般的な不協和モデルを提案する。このモデルでは,同一セッションに近づき,各発話が表現空間内のクラスタ化されたセッションプロトタイプに近づくように促す。
論文 参考訳(メタデータ) (2022-10-27T08:41:46Z) - TANet: Thread-Aware Pretraining for Abstractive Conversational
Summarization [27.185068253347257]
我々はRedditコミュニティの複数人による議論に基づいて,RCSと呼ばれる大規模(11M)事前学習データセットを構築した。
次に、スレッド対応のTransformerベースのネットワークであるTANetを紹介する。
会話を文の列として扱う既存の事前学習モデルとは異なり、本質的な文脈依存は会話全体を理解する上で重要な役割を担っていると論じる。
論文 参考訳(メタデータ) (2022-04-09T16:08:46Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Topic Detection from Conversational Dialogue Corpus with Parallel
Dirichlet Allocation Model and Elbow Method [1.599072005190786]
並列遅延ディリクレアロケーション(PLDA)モデルを用いたトピック検出手法を提案する。
クラスタ内での一貫性の解釈と検証には,Elbow Method を用いた K-mean クラスタリングを用いる。
実験の結果,PLDAとElbow法を組み合わせることで,最適なクラスタ数を選択し,会話のトピックを洗練できることがわかった。
論文 参考訳(メタデータ) (2020-06-05T10:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。