論文の概要: Selecting Stickers in Open-Domain Dialogue through Multitask Learning
- arxiv url: http://arxiv.org/abs/2209.07697v1
- Date: Fri, 16 Sep 2022 03:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 11:47:21.161668
- Title: Selecting Stickers in Open-Domain Dialogue through Multitask Learning
- Title(参考訳): マルチタスク学習によるオープンドメイン対話におけるステッカー選択
- Authors: Zhexin Zhang, Yeshuang Zhu, Zhengcong Fei, Jinchao Zhang, Jie Zhou
- Abstract要約: 本稿では,3つの補助課題からなるマルチタスク学習手法を提案する。
我々のモデルは多モード情報をうまく組み合わせて、強いベースラインよりもはるかに高い精度が得られる。
- 参考スコア(独自算出の注目度): 51.67855506570727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of online chatting, stickers are becoming
important in our online communication. Selecting appropriate stickers in
open-domain dialogue requires a comprehensive understanding of both dialogues
and stickers, as well as the relationship between the two types of modalities.
To tackle these challenges, we propose a multitask learning method comprised of
three auxiliary tasks to enhance the understanding of dialogue history, emotion
and semantic meaning of stickers. Extensive experiments conducted on a recent
challenging dataset show that our model can better combine the multimodal
information and achieve significantly higher accuracy over strong baselines.
Ablation study further verifies the effectiveness of each auxiliary task. Our
code is available at \url{https://github.com/nonstopfor/Sticker-Selection}
- Abstract(参考訳): オンラインチャットの普及に伴い、スタンプはオンラインコミュニケーションにおいて重要になっている。
オープンドメイン対話における適切なステッカーの選択には、対話とステッカーの両方の包括的理解と、2つのタイプのモダリティの関係が必要である。
これらの課題に対処するために,ステッカーの対話履歴,感情,意味の理解を高めるために,3つの補助課題からなるマルチタスク学習手法を提案する。
最近の挑戦的なデータセットで実施された大規模な実験により、我々のモデルはマルチモーダル情報をよりうまく組み合わせ、強いベースラインよりもはるかに高い精度を達成できることが示された。
アブレーション研究は、各補助タスクの有効性をさらに検証する。
私たちのコードは \url{https://github.com/nonstopfor/Sticker-Selection} で利用可能です。
関連論文リスト
- Mamba-Enhanced Text-Audio-Video Alignment Network for Emotion Recognition in Conversations [15.748798247815298]
本稿では,会話における感情認識のための新しいマンバエンハンステキスト・ビデオアライメントネットワーク(MaTAV)を提案する。
MaTAVは、異なるモダリティ間の整合性を確保するためにユニモーダル機能を整列させ、コンテキストのマルチモーダル情報をよりよくキャプチャするために長い入力シーケンスを処理するという利点がある。
論文 参考訳(メタデータ) (2024-09-08T23:09:22Z) - Dial2vec: Self-Guided Contrastive Learning of Unsupervised Dialogue
Embeddings [41.79937481022846]
教師なし対話の埋め込みを学習するタスクについて紹介する。
事前学習された単語や文の埋め込みや、事前学習された言語モデルによるエンコーディングといったトライアル的なアプローチは、実現可能であることが示されている。
本稿では,Dial2vecという自己指導型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-10-27T11:14:06Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Learning to Respond with Your Favorite Stickers: A Framework of Unifying
Multi-Modality and User Preference in Multi-Turn Dialog [67.91114640314004]
鮮明で魅力的な表現を持つスタンプは、オンラインメッセージングアプリでますます人気が高まっている。
スタンプイメージと過去の発話をマッチングすることで、スタンプ応答を自動的に選択する作業もある。
ユーザ履歴を用いたマルチターン・ダイアログ・コンテキストとステッカーに基づいて,ユーザに対して適切なステッカーを推奨する。
論文 参考訳(メタデータ) (2020-11-05T03:31:17Z) - Learning to Respond with Stickers: A Framework of Unifying
Multi-Modality in Multi-Turn Dialog [65.7021675527543]
鮮明で魅力的な表現を持つスタンプは、オンラインメッセージングアプリでますます人気が高まっている。
スタンプのテキストラベルと以前の発話をマッチングすることで、スタンプ応答を自動的に選択する作業もある。
我々は,外部ラベルを使わずに,マルチターン・ダイアログのコンテキスト履歴に基づいた適切なステッカーをユーザに提案する。
論文 参考訳(メタデータ) (2020-03-10T13:10:26Z) - Masking Orchestration: Multi-task Pretraining for Multi-role Dialogue
Representation Learning [50.5572111079898]
マルチロール対話理解は、質問応答、行動分類、対話要約など、幅広い多様なタスクを含む。
対話コーパスは豊富に利用可能であるが、特定の学習タスクのためのラベル付きデータは非常に不足しており、高価である。
本研究では,教師なし事前学習タスクを用いた対話文脈表現学習について検討する。
論文 参考訳(メタデータ) (2020-02-27T04:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。