論文の概要: DialogConv: A Lightweight Fully Convolutional Network for Multi-view
Response Selection
- arxiv url: http://arxiv.org/abs/2210.13845v1
- Date: Tue, 25 Oct 2022 09:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:39:24.397453
- Title: DialogConv: A Lightweight Fully Convolutional Network for Multi-view
Response Selection
- Title(参考訳): DialogConv:マルチビュー応答選択のための軽量完全畳み込みネットワーク
- Authors: Yongkang Liu and Shi Feng and Wei Gao and Daling Wang and Yifei Zhang
- Abstract要約: 応答選択のための軽量完全畳み込みアーキテクチャDialogConvを提案する。
DialogConvはコンボリューションの上に構築され、コンテキストとレスポンスのマッチング機能を抽出する。
4つのベンチマークデータセットでは、DialogConvは、それぞれCPUとGPUデバイスで平均8.5倍、79.39倍と10.64倍高速である。
- 参考スコア(独自算出の注目度): 24.939419105361075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current end-to-end retrieval-based dialogue systems are mainly based on
Recurrent Neural Networks or Transformers with attention mechanisms. Although
promising results have been achieved, these models often suffer from slow
inference or huge number of parameters. In this paper, we propose a novel
lightweight fully convolutional architecture, called DialogConv, for response
selection. DialogConv is exclusively built on top of convolution to extract
matching features of context and response. Dialogues are modeled in 3D views,
where DialogConv performs convolution operations on embedding view, word view
and utterance view to capture richer semantic information from multiple
contextual views. On the four benchmark datasets, compared with
state-of-the-art baselines, DialogConv is on average about 8.5x smaller in
size, and 79.39x and 10.64x faster on CPU and GPU devices, respectively. At the
same time, DialogConv achieves the competitive effectiveness of response
selection.
- Abstract(参考訳): 現在のエンドツーエンド検索ベースの対話システムは、主に注意機構を持つリカレントニューラルネットワークまたはトランスフォーマーに基づいている。
有望な結果が得られたが、これらのモデルはしばしば遅い推測や膨大な数のパラメータに悩まされる。
本稿では,応答選択のための新しい軽量な完全畳み込みアーキテクチャであるdialogconvを提案する。
DialogConvはコンボリューションの上に構築され、コンテキストとレスポンスの一致する特徴を抽出する。
対話は3Dビューでモデル化され、DialogConvは埋め込みビュー、単語ビュー、発話ビューで畳み込み操作を行い、複数のコンテキストビューからよりリッチな意味情報をキャプチャする。
4つのベンチマークデータセットでは、最先端のベースラインと比較して、DialogConvは平均して8.5倍小さく、CPUとGPUデバイスでは79.39倍と10.64倍高速である。
同時に、dialogconvは応答選択の競争的有効性を達成する。
関連論文リスト
- Let's Go Real Talk: Spoken Dialogue Model for Face-to-Face Conversation [55.043492250775294]
本稿では,新しい対面音声対話モデルを提案する。
ユーザ入力から音声視覚音声を処理し、応答として音声視覚音声を生成する。
また,最初の大規模マルチモーダル音声対話コーパスであるMultiDialogを紹介する。
論文 参考訳(メタデータ) (2024-06-12T04:48:36Z) - Contextual Data Augmentation for Task-Oriented Dialog Systems [8.085645180329417]
本研究では,ユーザターンを生成する新しいダイアログ拡張モデルを構築し,完全なダイアログコンテキストを条件づける。
言語モデルの新しいプロンプト設計と出力の再ランク付けにより、我々のモデルから生成されたダイアログを直接使用して、下流ダイアログシステムのトレーニングを行うことができる。
論文 参考訳(メタデータ) (2023-10-16T13:22:34Z) - SPACE-3: Unified Dialog Model Pre-training for Task-Oriented Dialog
Understanding and Generation [123.37377363355363]
SPACE-3は、大規模対話コーパスから学習する、新しい半教師付き会話モデルである。
幅広いダウンストリームダイアログタスクを効果的に微調整できる。
その結果、SPACE-3は8つの下流ダイアログベンチマークで最先端のパフォーマンスを達成することがわかった。
論文 参考訳(メタデータ) (2022-09-14T14:17:57Z) - Multimodal Dialogue State Tracking [97.25466640240619]
Video-Dialogue Transformer Network (VDTN)は、ビデオと対話の間のコンテキスト依存を学習し、マルチモーダル対話状態を生成する。
VDTNは、オブジェクトレベルの特徴とセグメントレベルの特徴を組み合わせて、ビデオと対話の間のコンテキスト依存を学び、マルチモーダルな対話状態を生成する。
論文 参考訳(メタデータ) (2022-06-16T03:18:42Z) - DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for
Dialog Response Generation [80.45816053153722]
DialogVEDは、拡張エンコーダデコーダ事前トレーニングフレームワークに連続潜伏変数を導入し、応答の関連性と多様性を高める。
我々は,PersonaChat,DailyDialog,DSTC7-AVSDベンチマークを用いて応答生成実験を行った。
論文 参考訳(メタデータ) (2022-04-27T16:18:15Z) - Modeling Text-visual Mutual Dependency for Multi-modal Dialog Generation [35.45552689723718]
実世界におけるマルチモーダルダイアログ生成の特定の事例を解決するためのフレームワークを提案する。
具体的には,テキスト・視覚的特徴間の相互依存をモデル化することを提案する。
テキストと視覚的特徴間の相互依存がモデル化されている場合、バニラモデルよりも顕著なパフォーマンス向上が観察される。
論文 参考訳(メタデータ) (2021-05-30T07:20:28Z) - OpenViDial: A Large-Scale, Open-Domain Dialogue Dataset with Visual
Contexts [35.57757367869986]
大規模なマルチモジュール対話データセットであるbf OpenViDialをリリースする。
OpenViDialには、合計11万の対話ターンが含まれている。
テキストとビジュアルの両方のコンテキストを利用したエンコーダデコーダモデルを提案する。
論文 参考訳(メタデータ) (2020-12-30T03:02:50Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Paraphrase Augmented Task-Oriented Dialog Generation [68.1790912977053]
本稿では,パラフレーズモデルと応答生成モデルを協調訓練するパラフレーズ拡張応答生成(PARG)フレームワークを提案する。
また、ダイアログ状態とダイアログアクトラベルに基づいて、パラフレーズトレーニングデータセットを自動構築する手法も設計する。
論文 参考訳(メタデータ) (2020-04-16T05:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。