論文の概要: You Impress Me: Dialogue Generation via Mutual Persona Perception
- arxiv url: http://arxiv.org/abs/2004.05388v1
- Date: Sat, 11 Apr 2020 12:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 10:10:02.243052
- Title: You Impress Me: Dialogue Generation via Mutual Persona Perception
- Title(参考訳): あなたは私を感動させる: 相互パーソナライズによる対話生成
- Authors: Qian Liu, Yihong Chen, Bei Chen, Jian-Guang Lou, Zixuan Chen, Bin
Zhou, Dongmei Zhang
- Abstract要約: 認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
- 参考スコア(独自算出の注目度): 62.89449096369027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the continuing efforts to improve the engagingness and consistency of
chit-chat dialogue systems, the majority of current work simply focus on
mimicking human-like responses, leaving understudied the aspects of modeling
understanding between interlocutors. The research in cognitive science,
instead, suggests that understanding is an essential signal for a high-quality
chit-chat conversation. Motivated by this, we propose P^2 Bot, a
transmitter-receiver based framework with the aim of explicitly modeling
understanding. Specifically, P^2 Bot incorporates mutual persona perception to
enhance the quality of personalized dialogue generation. Experiments on a large
public dataset, Persona-Chat, demonstrate the effectiveness of our approach,
with a considerable boost over the state-of-the-art baselines across both
automatic metrics and human evaluations.
- Abstract(参考訳): チットチャット対話システムのエンゲージメントと一貫性の改善を継続する努力にもかかわらず、現在の作業の大部分は単に人間のような反応を模倣することに集中しており、対話者間の理解のモデリングの側面を軽視している。
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P^2 Botを提案する。このP^2 Botは送信者受信者に基づくフレームワークで,理解を明示的にモデル化することを目的としている。
具体的には、P^2ボットは対人認識を取り入れ、パーソナライズされた対話生成の質を高める。
大規模な公開データセットであるPersona-Chatの実験では、我々のアプローチの有効性が実証され、自動測定と人的評価の両方で最先端のベースラインを大幅に向上した。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Enhancing Personality Recognition in Dialogue by Data Augmentation and
Heterogeneous Conversational Graph Networks [30.33718960981521]
パーソナリティ認識は、ユーザ適応応答をカスタマイズするロボットの能力を高めるのに有用である。
この課題の1つは、既存の対話コーパスにおける話者の限られた数である。
論文 参考訳(メタデータ) (2024-01-11T12:27:33Z) - From Knowledge Augmentation to Multi-tasking: Towards Human-like
Dialogue Systems [0.0]
人間と会話できる対話エージェントを構築するという目標は、研究者の長年の夢だった。
本稿では,人工会話エージェントと人間レベルのインターロケータのギャップを示唆する多くの問題に対処する手法に焦点をあてる。
論文 参考訳(メタデータ) (2022-11-14T17:27:07Z) - Enabling Harmonious Human-Machine Interaction with Visual-Context
Augmented Dialogue System: A Review [40.49926141538684]
Visual Context Augmented Dialogue System (VAD) は、マルチモーダル情報を知覚し理解することで人間とコミュニケーションする能力を持つ。
VADは、エンゲージメントとコンテキスト対応の応答を生成する可能性を秘めている。
論文 参考訳(メタデータ) (2022-07-02T09:31:37Z) - What Went Wrong? Explaining Overall Dialogue Quality through
Utterance-Level Impacts [15.018259942339448]
本稿では,ユーザ・システム間相互作用と対話品質の関係を学習する会話ログの自動解析手法を提案する。
提案手法は,発話レベルのアノテーションを使わずに,ユーザ評価全体からインタラクションの影響を学習する。
実験により,我々のモデルからの自動解析が専門家の判断と一致していることが示され,このような発話レベルの品質予測の弱い教師付き学習が達成可能であることを示す最初の方法となった。
論文 参考訳(メタデータ) (2021-10-31T19:12:29Z) - Know Deeper: Knowledge-Conversation Cyclic Utilization Mechanism for
Open-domain Dialogue Generation [11.72386584395626]
エンドツーエンドのインテリジェントなニューラルダイアログシステムは、一貫性のない繰り返し応答を生成する問題に悩まされる。
既存の対話モデルは、対人関係の会話情報を対人情報の流れとして捉えた個人知識に組み込むことが、その後の会話の質を高めるという事実を無視しながら、対人関係の個人知識を一方的にダイアログに組み込むことに注意を払っている。
会話の一貫性を向上し、2つの折り畳みから繰り返しを緩和することを目的とした,会話適応型多視点対応対応型応答生成モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T08:59:06Z) - DynaEval: Unifying Turn and Dialogue Level Evaluation [60.66883575106898]
統合された自動評価フレームワークDynaEvalを提案する。
ターンレベルの評価を行うことができるが、対話全体の品質を公平に考慮することもできる。
実験の結果,DynaEvalは最先端の対話コヒーレンスモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-06-02T12:23:18Z) - I like fish, especially dolphins: Addressing Contradictions in Dialogue
Modeling [104.09033240889106]
DialoguE Contradiction Detection Task(DECODE)と、人間とロボットの矛盾した対話の両方を含む新しい会話データセットを紹介します。
次に、事前学習したトランスフォーマーモデルを用いて、定型的非構造的アプローチと矛盾検出を行う構造的発話に基づくアプローチを比較する。
論文 参考訳(メタデータ) (2020-12-24T18:47:49Z) - GRADE: Automatic Graph-Enhanced Coherence Metric for Evaluating
Open-Domain Dialogue Systems [133.13117064357425]
自動対話評価のためのグラフ強調表現のための新しい評価指標GRADEを提案する。
具体的には、対話コヒーレンスを評価するために、粗粒度発話レベルの文脈化表現と細粒度トピックレベルのグラフ表現の両方を組み込んでいる。
実験の結果,GRADEは多様な対話モデルの測定において,他の最先端の指標よりも優れていた。
論文 参考訳(メタデータ) (2020-10-08T14:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。