論文の概要: Local and Global Contexts for Conversation
- arxiv url: http://arxiv.org/abs/2401.17588v1
- Date: Wed, 31 Jan 2024 04:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:38:45.222825
- Title: Local and Global Contexts for Conversation
- Title(参考訳): 会話の局所的・グローバル的文脈
- Authors: Zuoquan Lin and Xinyi Shen
- Abstract要約: オープンドメインにおける汎用会話のためのローカル・グローバル会話モデル(LGCM)を提案する。
局所的な階層変換モデルであり、関連するコンテキストを正確に識別し、同化することができる。
ローカルエンコーダを使用して、個々の発話レベルでローカルコンテキストを把握し、グローバルエンコーダを使用して対話レベルでのより広いコンテキストを理解する。
- 参考スコア(独自算出の注目度): 2.566915473185134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The context in conversation is the dialog history crucial for multi-turn
dialogue. Learning from the relevant contexts in dialog history for grounded
conversation is a challenging problem. Local context is the most neighbor and
more sensitive to the subsequent response, and global context is relevant to a
whole conversation far beyond neighboring utterances. Currently, pretrained
transformer models for conversation challenge capturing the correlation and
connection between local and global contexts. We introduce a local and global
conversation model (LGCM) for general-purpose conversation in open domain. It
is a local-global hierarchical transformer model that excels at accurately
discerning and assimilating the relevant contexts necessary for generating
responses. It employs a local encoder to grasp the local context at the level
of individual utterances and a global encoder to understand the broader context
at the dialogue level. The seamless fusion of these locally and globally
contextualized encodings ensures a comprehensive comprehension of the
conversation. Experiments on popular datasets show that LGCM outperforms the
existing conversation models on the performance of automatic metrics with
significant margins.
- Abstract(参考訳): 会話の文脈はマルチターン対話に不可欠な対話履歴である。
接地会話における対話履歴の関連文脈から学ぶことは難しい問題である。
ローカルコンテキストは最も隣接しており、その後の応答に対してより敏感であり、グローバルコンテキストは隣り合う発話をはるかに超えた会話全体に関連している。
現在、会話チャレンジのための事前訓練されたトランスフォーマーモデルが、ローカルコンテキストとグローバルコンテキストの相関と関係を捉えている。
オープンドメインにおける汎用会話のためのローカルおよびグローバル会話モデル(lgcm)を提案する。
局所的グローバル階層的トランスフォーマーモデルであり、応答を生成するのに必要な関連するコンテキストを正確に識別し、同化することができる。
ローカルエンコーダを使用して、個々の発話レベルのローカルコンテキストを把握し、グローバルエンコーダを使用して対話レベルでの広義のコンテキストを理解する。
これらのローカルエンコーディングとグローバルエンコーディングのシームレスな融合は、会話の包括的理解を保証する。
一般的なデータセットの実験では、LGCMは既存の会話モデルよりも、大きなマージンを持つ自動メトリクスのパフォーマンスに優れていた。
関連論文リスト
- A Static and Dynamic Attention Framework for Multi Turn Dialogue Generation [37.79563028123686]
オープンドメインマルチターン対話生成では,対話履歴の文脈意味論をモデル化することが不可欠である。
従来の研究は、オープンドメインマルチターン対話生成における階層的再帰エンコーダデコーダフレームワークの有効性を検証していた。
本稿では,対話履歴をモデル化し,オープンドメインのマルチターン対話応答を生成する静的かつ動的アテンションに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-28T06:05:34Z) - Generalizing Conversational Dense Retrieval via LLM-Cognition Data Augmentation [25.578440131793858]
既存の会話高密度検索モデルは、主に会話を質問や回答の固定シーケンスとして見る。
本稿では,LLM認識データ拡張(ConvAug)による会話高密度検索の一般化のためのフレームワークを提案する。
人間の認知にインスパイアされた私たちは、偽陽性、偽陰性、幻覚の発生を緩和する認知認識プロセスを考案した。
論文 参考訳(メタデータ) (2024-02-11T03:27:22Z) - X-ReCoSa: Multi-Scale Context Aggregation For Multi-Turn Dialogue
Generation [0.0]
マルチターン対話生成では、応答は文脈の話題や背景だけでなく、文脈の文中の単語やフレーズにも関係している。
現在広く使われている階層型ダイアログモデルは、単語レベルのエンコーダから出力される文表現を無視して、発話レベルのエンコーダからの文脈表現のみに依存している。
本稿では,階層型ダイアログモデルのためのマルチスケールコンテキスト情報を集約する,新しいダイアログモデルX-ReCoSaを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:15:52Z) - Enhancing Dialogue Summarization with Topic-Aware Global- and Local-
Level Centrality [24.838387172698543]
我々は,すべてのサブトピックから健全なコンテキストを選択するのに役立つ,新たなトピック対応グローバル・ローカル・セントラル(GLC)モデルを提案する。
グローバルなものは対話において重要なサブトピックを特定することを目的としており、ローカルなものは各サブトピックにおいて最も重要なコンテキストを選択することを目的としている。
実験結果から,本モデルは3つの公開対話要約データセットにおいて高いベースラインを達成できた。
論文 参考訳(メタデータ) (2023-01-29T06:41:55Z) - FCTalker: Fine and Coarse Grained Context Modeling for Expressive
Conversational Speech Synthesis [75.74906149219817]
Conversational Text-to-Speech (TTS) は、会話の文脈において、適切な言語的・感情的な韻律で発話を合成することを目的としている。
本稿では, 音声生成時に, 微細で粗い文脈依存性を同時に学習する, FCTalkerと呼ばれる新しい表現型会話型TSモデルを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:20:20Z) - Knowledge-Grounded Conversational Data Augmentation with Generative
Conversational Networks [76.11480953550013]
生成会話ネットワークを用いて会話データを自動的に生成する。
我々は、Topical Chatデータセット上で、知識のない会話に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-22T22:37:14Z) - Grounding in social media: An approach to building a chit-chat dialogue
model [9.247397520986999]
豊かな人間のような会話能力を持つオープンドメイン対話システムを構築することは、言語生成における根本的な課題の1つである。
知識に基づく対話生成に関する現在の研究は、主にウィキペディアのような事実に基づく構造化知識ソースを法人化または検索することに焦点を当てている。
本手法は,ソーシャルメディア上での人間の反応行動の模倣によって,システムの生会話能力を向上させることを目的とした,より広範かつシンプルなアプローチである。
論文 参考訳(メタデータ) (2022-06-12T09:01:57Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Modeling Topical Relevance for Multi-Turn Dialogue Generation [61.87165077442267]
マルチターン対話におけるトピックドリフト問題に対処する新しいモデルSTAR-BTMを提案する。
バイラルトピックモデルは、トレーニングデータセット全体に基づいて事前トレーニングされ、各コンテキストのトピック表現に基づいてトピックレベルの注意重みが計算される。
中国における顧客サービスデータと英語Ubuntuの対話データの両方の実験結果から、STAR-BTMは最先端の手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-09-27T03:33:22Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。