論文の概要: Question-Interlocutor Scope Realized Graph Modeling over Key Utterances
for Dialogue Reading Comprehension
- arxiv url: http://arxiv.org/abs/2210.14456v1
- Date: Wed, 26 Oct 2022 04:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:24:40.665969
- Title: Question-Interlocutor Scope Realized Graph Modeling over Key Utterances
for Dialogue Reading Comprehension
- Title(参考訳): 対話読解のためのキー発話によるグラフモデルの実現
- Authors: Jiangnan Li and Mo Yu and Fandong Meng and Zheng Lin and Peng Fu and
Weiping Wang and Jie Zhou
- Abstract要約: 本稿では,対話読解のためのキーワード抽出手法を提案する。
複数の連続した発話によって形成された単位に対して予測を行い、より多くの回答を含む発話を実現する。
発話のテキスト上に構築されたグラフとして,質問-対話者スコープ実現グラフ(QuISG)モデルを提案する。
- 参考スコア(独自算出の注目度): 61.55950233402972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we focus on dialogue reading comprehension (DRC), a task
extracting answer spans for questions from dialogues. Dialogue context modeling
in DRC is tricky due to complex speaker information and noisy dialogue context.
To solve the two problems, previous research proposes two self-supervised tasks
respectively: guessing who a randomly masked speaker is according to the
dialogue and predicting which utterance in the dialogue contains the answer.
Although these tasks are effective, there are still urging problems: (1)
randomly masking speakers regardless of the question cannot map the speaker
mentioned in the question to the corresponding speaker in the dialogue, and
ignores the speaker-centric nature of utterances. This leads to wrong answer
extraction from utterances in unrelated interlocutors' scopes; (2) the single
utterance prediction, preferring utterances similar to the question, is limited
in finding answer-contained utterances not similar to the question. To
alleviate these problems, we first propose a new key utterances extracting
method. It performs prediction on the unit formed by several contiguous
utterances, which can realize more answer-contained utterances. Based on
utterances in the extracted units, we then propose Question-Interlocutor Scope
Realized Graph (QuISG) modeling. As a graph constructed on the text of
utterances, QuISG additionally involves the question and question-mentioning
speaker names as nodes. To realize interlocutor scopes, speakers in the
dialogue are connected with the words in their corresponding utterances.
Experiments on the benchmarks show that our method can achieve better and
competitive results against previous works.
- Abstract(参考訳): 本研究では,対話からの質問に対する回答を抽出する作業である対話読解(DRC)に焦点を当てる。
drcにおける対話コンテキストモデリングは、複雑な話者情報と騒がしい対話コンテキストのために難しい。
この2つの問題を解決するために,従来の研究では,ランダムにマスクされた話者が誰であるかを対話に従って推測し,対話中の発話が回答を含むかを予測するという2つの自己教師タスクが提案されている。
これらのタスクは有効であるが、(1)質問によらず話者をランダムにマスキングすることは、質問で言及されている話者を対話中の対応する話者にマップできない、そして発話の話者中心の性質を無視する、といった問題が残っている。
2) 質問に類似した発話を優先する単一発話予測は,質問に類似しない回答を含む発話の発見に限られる。
これらの問題を緩和するために,まず,新しいキー発話抽出法を提案する。
複数の連続した発話で形成された単位の予測を実行し、より多くの回答を含む発話を実現する。
抽出された単位の発話に基づいて、質問対話スコープ実現グラフ(quisg)モデルを提案する。
発話のテキスト上に構築されたグラフとして、QuISGは質問と質問をノードとして含む。
対話中の話者は、対話者スコープを実現するために、対応する発話中の単語と接続される。
ベンチマーク実験の結果,本手法は従来の手法よりも良好で競争力のある結果が得られることがわかった。
関連論文リスト
- End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - A Speaker-aware Parallel Hierarchical Attentive Encoder-Decoder Model
for Multi-turn Dialogue Generation [13.820298189734686]
本稿では,マルチターン会話における話者の区別を強調するオープンドメイン対話生成モデルを提案する。
実験の結果,PHAEDは自動評価と人的評価の両面で最先端の成績を示した。
論文 参考訳(メタデータ) (2021-10-13T16:08:29Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - Enhanced Speaker-aware Multi-party Multi-turn Dialogue Comprehension [43.352833140317486]
マルチパーティ・マルチターン・ダイアログの理解は前例のない課題をもたらす。
既存のほとんどのメソッドは、会話コンテキストをプレーンテキストとして扱う。
マスキングアテンションと異種グラフネットワークを用いた話者認識モデルを提案する。
論文 参考訳(メタデータ) (2021-09-09T07:12:22Z) - Self- and Pseudo-self-supervised Prediction of Speaker and Key-utterance
for Multi-party Dialogue Reading Comprehension [46.69961067676279]
マルチパーティ対話機械読解(MRC)は,複数の話者が対話を行うため,大きな課題をもたらす。
従来のモデルは、複雑なグラフベースのモジュールを使用して話者情報フローを組み込む方法に重点を置いていた。
本稿では、話者情報の流れを暗黙的にモデル化するために、話者とキー発話における2つの労働自由自助的・疑似自己監督型予測タスクを設計する。
論文 参考訳(メタデータ) (2021-09-08T16:51:41Z) - Self-supervised Dialogue Learning for Spoken Conversational Question
Answering [29.545937716796082]
音声対話質問応答(SCQA)では、複数の会話を含む固定された音声文書を検索して分析することにより、対応する質問に対する回答を生成する。
本研究では,不整合判定,挿入検出,質問予測などの自己教師付き学習手法を導入し,コア参照の解決と対話のコヒーレンスを明確に把握する。
提案手法は,従来の事前学習言語モデルと比較して,より一貫性があり,意味があり,適切な応答を提供する。
論文 参考訳(メタデータ) (2021-06-04T00:09:38Z) - Multi-turn Dialogue Reading Comprehension with Pivot Turns and Knowledge [43.352833140317486]
マルチターン対話読解は、機械に対話コンテキストを読み、応答選択や回答質問といったタスクを解くことを目的としている。
この研究は、ピボット発話として重要なターンを抽出することで、上記の2つの課題に対処する最初の試みである。
本稿では,対話理解のためのトランスフォーマーに基づく言語モデル上に,ピボット指向の深層選択モデル(PoDS)を提案する。
論文 参考訳(メタデータ) (2021-02-10T15:00:12Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。