論文の概要: Coreference-aware Double-channel Attention Network for Multi-party
Dialogue Reading Comprehension
- arxiv url: http://arxiv.org/abs/2305.08348v2
- Date: Mon, 22 May 2023 04:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:33:48.454032
- Title: Coreference-aware Double-channel Attention Network for Multi-party
Dialogue Reading Comprehension
- Title(参考訳): 多人数対話読解のための参照型二重チャネル注意ネットワーク
- Authors: Yanling Li, Bowei Zou, Yifan Fan, Mengxing Dong, Yu Hong
- Abstract要約: MDRC(Multi-party Dialogue Reading)に挑戦する
MDRCは、複数のインターロケータ間の対話に基づく抽出読解タスクの略である。
推論能力を高めるためのコア推論対応アテンションモデリング手法を提案する。
- 参考スコア(独自算出の注目度): 7.353227696624305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle Multi-party Dialogue Reading Comprehension (abbr., MDRC). MDRC
stands for an extractive reading comprehension task grounded on a batch of
dialogues among multiple interlocutors. It is challenging due to the
requirement of understanding cross-utterance contexts and relationships in a
multi-turn multi-party conversation. Previous studies have made great efforts
on the utterance profiling of a single interlocutor and graph-based interaction
modeling. The corresponding solutions contribute to the answer-oriented
reasoning on a series of well-organized and thread-aware conversational
contexts. However, the current MDRC models still suffer from two bottlenecks.
On the one hand, a pronoun like "it" most probably produces multi-skip
reasoning throughout the utterances of different interlocutors. On the other
hand, an MDRC encoder is potentially puzzled by fuzzy features, i.e., the
mixture of inner linguistic features in utterances and external interactive
features among utterances. To overcome the bottlenecks, we propose a
coreference-aware attention modeling method to strengthen the reasoning
ability. In addition, we construct a two-channel encoding network. It
separately encodes utterance profiles and interactive relationships, so as to
relieve the confusion among heterogeneous features. We experiment on the
benchmark corpora Molweni and FriendsQA. Experimental results demonstrate that
our approach yields substantial improvements on both corpora, compared to the
fine-tuned BERT and ELECTRA baselines. The maximum performance gain is about
2.5\% F1-score. Besides, our MDRC models outperform the state-of-the-art in
most cases.
- Abstract(参考訳): MDRC(Multi-party Dialogue Reading Comprehension)に挑戦する。
MDRCは、複数のインターロケータ間の対話に基づく抽出読解タスクの略である。
マルチターン多人数会話におけるクロス発話の文脈と関係を理解する必要があるため、これは困難である。
これまでの研究は、単一の対話型言語とグラフベースの相互作用モデリングの発話プロファイリングに多大な努力をしてきた。
対応するソリューションは、よく整理されたスレッド対応の会話コンテキストにおける回答指向の推論に寄与する。
しかし、現在のMDRCモデルは2つのボトルネックに悩まされている。
一方、「it」のような代名詞は、多種多様な対話者の発話を通して多種多様な推論を生成することが多い。
一方、MDRCエンコーダは、発話における内言語的特徴と発話間の外部対話的特徴の混合といったファジィ特徴に悩まされる可能性がある。
ボトルネックを克服するため,推論能力を高めるためのコア推論対応アテンションモデリング手法を提案する。
さらに,2チャネル符号化ネットワークを構築した。
発話プロファイルと対話的な関係を別々にエンコードすることで、異質な特徴間の混乱を緩和する。
ベンチマークコーパスMolweniとFriendsQAの実験を行った。
提案手法は細調整したBERT および ELECTRA ベースラインと比較して, 両コーパスの大幅な改善が得られた。
最大パフォーマンスゲインは約2.5\% F1スコアである。
MDRCモデルは、ほとんどの場合、最先端のモデルよりも優れています。
関連論文リスト
- Explaining Interactions Between Text Spans [50.70253702800355]
入力の異なる部分からのトークンのスパンに対する推論は、自然言語理解に不可欠である。
NLUタスク2つのタスク(NLIとFC)に対する人間間相互作用の説明データセットであるSpanExを紹介する。
次に,複数の微調整された大言語モデルの決定過程を,スパン間の相互接続の観点から検討する。
論文 参考訳(メタデータ) (2023-10-20T13:52:37Z) - Dynamic Multi-Scale Context Aggregation for Conversational Aspect-Based
Sentiment Quadruple Analysis [4.768182075837568]
DiaASQは、対話の中で、ターゲット・アスペクト・オピニオン感覚の4倍を抽出することを目的としている。
既存の作業はそれぞれの発話を独立して符号化するので、長距離会話のコンテキストを捉えるのに苦労する。
本稿では,新しい動的マルチスケールコンテキストアグリゲーションネットワーク(DMCA)を提案する。
論文 参考訳(メタデータ) (2023-09-27T08:17:28Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - IRRGN: An Implicit Relational Reasoning Graph Network for Multi-turn
Response Selection [4.471148909362883]
Graph Networkへのインプシット推論は、発話間の暗黙的な抽出と、発話とオプションの抽出を目的としている。
モデルは、初めて MuTual データセットで人のパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2022-12-01T13:17:25Z) - Findings on Conversation Disentanglement [28.874162427052905]
発話から発話への分類と発話からスレッドへの分類を学習する学習モデルを構築した。
Ubuntu IRCデータセットの実験は、このアプローチが従来の欲求的アプローチを上回る可能性があることを示している。
論文 参考訳(メタデータ) (2021-12-10T05:54:48Z) - Multi-tasking Dialogue Comprehension with Discourse Parsing [43.352833140317486]
マルチパーティ対話型MRCタスクにおいて,QAと談話解析(DP)を併用する最初のマルチタスクモデルを提案する。
以上の結果から,相補的なタスクによるトレーニングは,QAタスクだけでなく,DPタスク自体にも効果があることが示唆された。
論文 参考訳(メタデータ) (2021-10-07T08:51:49Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。