論文の概要: TransESC: Smoothing Emotional Support Conversation via Turn-Level State
Transition
- arxiv url: http://arxiv.org/abs/2305.03296v1
- Date: Fri, 5 May 2023 05:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 15:06:58.659841
- Title: TransESC: Smoothing Emotional Support Conversation via Turn-Level State
Transition
- Title(参考訳): TransESC: ターンレベル状態遷移による平滑な感情支援会話
- Authors: Weixiang Zhao, Yanyan Zhao, Shilong Wang, Bing Qin
- Abstract要約: 感情支援会話(Emotion Support Conversation、ESC)は、人々の感情的苦痛を減らすことを目的とした、新しくて困難な課題である。
ESCにおける発話間のスムーズな遷移を維持できないのは、各対話のターンで細かい遷移情報の把握を無視するためである。
我々は,3つの視点から,テキストbfESC(textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,text bfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC,textbfTransESC ,textbfTransC,textbfTransESC,textbfTransesC,textbfTransESC,textbfTransESC,textbfTransitions of textbfTransitions of textbfTransitions of textbfTransitions of textbfTransitions of text
- 参考スコア(独自算出の注目度): 13.754808093254864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion Support Conversation (ESC) is an emerging and challenging task with
the goal of reducing the emotional distress of people. Previous attempts fail
to maintain smooth transitions between utterances in ESC because they ignore to
grasp the fine-grained transition information at each dialogue turn. To solve
this problem, we propose to take into account turn-level state
\textbf{Trans}itions of \textbf{ESC} (\textbf{TransESC}) from three
perspectives, including semantics transition, strategy transition and emotion
transition, to drive the conversation in a smooth and natural way.
Specifically, we construct the state transition graph with a two-step way,
named transit-then-interact, to grasp such three types of turn-level transition
information. Finally, they are injected into the transition-aware decoder to
generate more engaging responses. Both automatic and human evaluations on the
benchmark dataset demonstrate the superiority of TransESC to generate more
smooth and effective supportive responses. Our source code is available at
\url{https://github.com/circle-hit/TransESC}.
- Abstract(参考訳): 感情サポート会話(esc)は、人々の感情的な苦痛を減らすことを目的とした、新しくて挑戦的なタスクである。
ESCにおける発話間のスムーズな遷移を維持できないのは、各対話のターンで細かい遷移情報の把握を無視するためである。
この問題を解決するために,意味論遷移,戦略遷移,感情遷移を含む3つの視点から,ターンレベルの \textbf{Trans}itions of \textbf{ESC} (\textbf{Trans}C}) を考慮し,会話を円滑かつ自然な方法で進めることを提案する。
具体的には、3種類のターンレベル遷移情報を把握するためにtransit-then-interactという2段階の方法で状態遷移グラフを構築する。
最後に、transition-awareデコーダに注入することで、より魅力的なレスポンスを生成する。
ベンチマークデータセットの自動評価と人的評価の両方は、よりスムーズで効果的なサポート応答を生成するTransESCの優位性を示している。
ソースコードは \url{https://github.com/circle-hit/transesc} で利用可能です。
関連論文リスト
- Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Weakly-Supervised Emotion Transition Learning for Diverse 3D Co-speech Gesture Generation [43.04371187071256]
本研究では,3次元アバターにおける鮮明で感情的な3次元共同音声ジェスチャを生成する新しい手法を提案する。
そこで我々は,ChatGPT-4と音声インペインティング手法を用いて,高忠実度感情遷移音声を構築する。
本手法は,1つの感情条件に適応して構築した最先端モデルよりも優れる。
論文 参考訳(メタデータ) (2023-11-29T11:10:40Z) - Cross-Modal Multi-Tasking for Speech-to-Text Translation via Hard
Parameter Sharing [72.56219471145232]
ハードパラメータ共有を伴うST/MTマルチタスクフレームワークを提案する。
本手法は,事前処理による音声文のモダリティギャップを低減する。
我々は,注意エンコーダ・デコーダ,コネクショニスト時間分類(CTC),トランスデューサ,共同CTC/アテンションモデルを平均+0.5BLEUで改善することを示す。
論文 参考訳(メタデータ) (2023-09-27T17:48:14Z) - System-Initiated Transitions from Chit-Chat to Task-Oriented Dialogues
with Transition Info Extractor and Transition Sentence Generator [4.714297769572548]
チャットから始まる対話シナリオについて検討するが、最終的にはタスク関連サービスに切り替える。
統合対話モデルは、チャットとタスク指向対話の両方に関わり得るが、対話モード遷移の間は主導権を握る。
論文 参考訳(メタデータ) (2023-08-06T12:25:22Z) - CMOT: Cross-modal Mixup via Optimal Transport for Speech Translation [15.139447549817483]
エンドツーエンドの音声翻訳(ST)は、クロスモーダルなタスクである。
既存の手法は、しばしば機械翻訳(MT)から知識を伝達しようとする
本稿では,モダリティギャップを克服するために,最適輸送CMOTを用いたクロスモーダル混成を提案する。
論文 参考訳(メタデータ) (2023-05-24T02:13:48Z) - Visual Reasoning: from State to Transformation [80.32402545546209]
既存の視覚的推論タスクは重要な要素、すなわち変換を無視している。
本稿では,新しいテキスト変換駆動型視覚推論(TVR)タスクを提案する。
現状のビジュアル推論モデルは,Basic上では良好に機能するが,イベント,ビュー,TRANCOにおける人間レベルのインテリジェンスには程遠いことを示す。
論文 参考訳(メタデータ) (2023-05-02T14:24:12Z) - UTSGAN: Unseen Transition Suss GAN for Transition-Aware Image-to-image
Translation [57.99923293611923]
我々はI2Iトランスフォーメーションに対してトランジッションアウェアアプローチを導入し、データトランスフォーメーションマッピングをトランジッション変数で明示的にパラメータ化する。
本稿では、遷移変数に定義された遷移整合性を利用することにより、観測されていない翻訳における整合性の正規化を可能にする。
これらの知見に基づき、遷移エンコーダを用いた遷移のための多様体を構成する生成フレームワークである Unseen transition Suss GAN (UTSGAN) を提案する。
論文 参考訳(メタデータ) (2023-04-24T09:47:34Z) - Transition Relation Aware Self-Attention for Session-based
Recommendation [11.202585147927122]
セッションベースのレコメンデーションは、現実世界のシーンでは難しい問題です。
最近のグラフニューラルネットワーク(GNN)は、セッションベースの推薦のための最先端の手法として登場した。
本稿では,セッションベースの推薦のための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-12T10:54:34Z) - Enhanced Modality Transition for Image Captioning [51.72997126838352]
MTM(Modality Transition Module)を構築し、言語モデルに転送する前に視覚的機能をセマンティック表現に転送します。
トレーニング段階では、モダリティ遷移ネットワークは提案されたモダリティ損失によって最適化される。
提案手法の有効性を示すMS-COCOデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-02-23T07:20:12Z) - Continuous Transition: Improving Sample Efficiency for Continuous
Control Problems via MixUp [119.69304125647785]
本稿では,連続的遷移を構築するための簡潔かつ強力な手法を提案する。
具体的には、連続的な遷移を線形に補間することにより、トレーニングのための新しい遷移を合成することを提案する。
また, 建設過程を自動案内する判別器を開発した。
論文 参考訳(メタデータ) (2020-11-30T01:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。