論文の概要: Enhancing Self-Disclosure In Neural Dialog Models By Candidate
Re-ranking
- arxiv url: http://arxiv.org/abs/2109.05090v1
- Date: Fri, 10 Sep 2021 20:06:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-18 20:47:21.441540
- Title: Enhancing Self-Disclosure In Neural Dialog Models By Candidate
Re-ranking
- Title(参考訳): 候補再ランキングによるニューラルダイアログモデルの自己開示性の向上
- Authors: Mayank Soni, Benjamin Cowan, Vincent Wade
- Abstract要約: 社会侵入理論 (SPT) は、主に自己開示を通じて関係が進むにつれて、二人のコミュニケーションが浅いレベルから深いレベルに移動することを示唆している。
本稿では, 自己開示促進アーキテクチャ (SDEA) を導入し, 自己開示トピックモデル (SDTM) を用いて, モデルからのシングルターン応答における自己開示を高めるために, 応答候補を再ランク付けする。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural language modelling has progressed the state-of-the-art in different
downstream Natural Language Processing (NLP) tasks. One such area is of
open-domain dialog modelling, neural dialog models based on GPT-2 such as
DialoGPT have shown promising performance in single-turn conversation. However,
such (neural) dialog models have been criticized for generating responses which
although may have relevance to the previous human response, tend to quickly
dissipate human interest and descend into trivial conversation. One reason for
such performance is the lack of explicit conversation strategy being employed
in human-machine conversation. Humans employ a range of conversation strategies
while engaging in a conversation, one such key social strategies is
Self-disclosure(SD). A phenomenon of revealing information about one-self to
others. Social penetration theory (SPT) proposes that communication between two
people moves from shallow to deeper levels as the relationship progresses
primarily through self-disclosure. Disclosure helps in creating rapport among
the participants engaged in a conversation. In this paper, Self-disclosure
enhancement architecture (SDEA) is introduced utilizing Self-disclosure Topic
Model (SDTM) during inference stage of a neural dialog model to re-rank
response candidates to enhance self-disclosure in single-turn responses from
from the model.
- Abstract(参考訳): ニューラルネットワークモデリングは、さまざまな下流自然言語処理(NLP)タスクにおいて最先端の進歩を遂げている。
このような領域の1つは、オープンドメインダイアログモデリングであり、DialoGPTのようなGPT-2に基づくニューラルダイアログモデルは、シングルターン会話において有望な性能を示している。
しかし、そのような(神経的な)ダイアログモデルは、以前の人間の反応と関係があるとしても、すぐに人間の関心を散逸させ、簡単な会話に陥る傾向があると批判されている。
このようなパフォーマンスの理由の1つは、人間と機械の会話に明示的な会話戦略が採用されていないことである。
人間は会話をしながら様々な会話戦略を採用するが、そのような社会戦略の1つは自己開示(SD)である。
他人に自分の情報を明らかにする現象。
社会的浸透理論 (spt) は、2人間のコミュニケーションが浅いレベルから深いレベルへと移動し、関係は主に自己開示を通じて進行することを提案する。
開示は、会話に参加している参加者の間でラプポートを作成するのに役立つ。
本稿では,ニューラルダイアログモデルの推論段階における自己開示トピックモデル(SDTM)を用いて,自己開示促進アーキテクチャ(SDEA)を導入し,単一ターン応答における自己開示をモデルから強化する。
関連論文リスト
- Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Emotion Recognition in Conversation using Probabilistic Soft Logic [17.62924003652853]
会話における感情認識(英: emotion recognition in conversation、ERC)とは、2つ以上の発話を含む会話に焦点を当てた感情認識のサブフィールドである。
我々は,宣言的テンプレート言語である確率的ソフト論理(PSL)にアプローチを実装した。
PSLは、ニューラルモデルからPSLモデルへの結果の取り込みのための機能を提供する。
提案手法を最先端の純粋ニューラルネットワークERCシステムと比較した結果,約20%の改善が得られた。
論文 参考訳(メタデータ) (2022-07-14T23:59:06Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Emotion Dynamics Modeling via BERT [7.3785751096660555]
対話型感情ダイナミクスのインターロケータ間およびインターロケータ間依存性をキャプチャするBERTベースの一連のモデルを開発する。
提案したモデルはそれぞれ,最先端のベースラインよりも約5%,10%改善できる。
論文 参考訳(メタデータ) (2021-04-15T05:58:48Z) - A Taxonomy of Empathetic Response Intents in Human Social Conversations [1.52292571922932]
自然言語処理コミュニティでは、オープンドメインの会話エージェントがますます人気を高めている。
課題のひとつは、共感的な方法で会話できるようにすることです。
現在のニューラルレスポンス生成手法は、大規模な会話データからエンドツーエンドの学習のみに頼って対話を生成する。
近年,対話act/intentモデリングとニューラルレスポンス生成を組み合わせることが期待されている。
論文 参考訳(メタデータ) (2020-12-07T21:56:45Z) - Are Neural Open-Domain Dialog Systems Robust to Speech Recognition
Errors in the Dialog History? An Empirical Study [10.636793932473426]
ダイアログ履歴における様々な種類の合成および実際のASR仮説がTransferTransfoに与える影響について検討した。
我々の知る限りでは、人工的および実際のASR仮説が最先端のオープンドメインダイアログシステムに与える影響を初めて評価する研究である。
論文 参考訳(メタデータ) (2020-08-18T00:36:57Z) - Neural Generation of Dialogue Response Timings [13.611050992168506]
音声応答オフセットの分布をシミュレートするニューラルモデルを提案する。
モデルは、インクリメンタルな音声対話システムのパイプラインに統合されるように設計されている。
人間の聴取者は、対話の文脈に基づいて、特定の応答タイミングをより自然なものとみなす。
論文 参考訳(メタデータ) (2020-05-18T23:00:57Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。