論文の概要: You Truly Understand What I Need: Intellectual and Friendly Dialogue
Agents grounding Knowledge and Persona
- arxiv url: http://arxiv.org/abs/2301.02401v1
- Date: Fri, 6 Jan 2023 06:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:25:36.534065
- Title: You Truly Understand What I Need: Intellectual and Friendly Dialogue
Agents grounding Knowledge and Persona
- Title(参考訳): 私の必要なものを本当に理解している人:知識とペルソナを基盤とする知的で友好的な対話エージェント
- Authors: Jungwoo Lim, Myunghoon Kang, Yuna Hur, Seungwon Jung, Jinsung Kim,
Yoonna Jang, Dongyub Lee, Hyesung Ji, Donghoon Shin, Seungryong Kim, and
Heuiseok Lim
- Abstract要約: 外部知識とペルソナを同時に活用する効果的な対話エージェントを提案する。
エージェントは、ポリエンコーダで実装された候補スコアで回答を生成するために使用する適切な知識とペルソナを選択する。
我々はペルソナ知識チャットの実験を行い、グラウンドおよび生成タスクにおける最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 30.30372603825815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To build a conversational agent that interacts fluently with humans, previous
studies blend knowledge or personal profile into the pre-trained language
model. However, the model that considers knowledge and persona at the same time
is still limited, leading to hallucination and a passive way of using personas.
We propose an effective dialogue agent that grounds external knowledge and
persona simultaneously. The agent selects the proper knowledge and persona to
use for generating the answers with our candidate scoring implemented with a
poly-encoder. Then, our model generates the utterance with lesser hallucination
and more engagingness utilizing retrieval augmented generation with
knowledge-persona enhanced query. We conduct experiments on the
persona-knowledge chat and achieve state-of-the-art performance in grounding
and generation tasks on the automatic metrics. Moreover, we validate the
answers from the models regarding hallucination and engagingness through human
evaluation and qualitative results. We show our retriever's effectiveness in
extracting relevant documents compared to the other previous retrievers, along
with the comparison of multiple candidate scoring methods. Code is available at
https://github.com/dlawjddn803/INFO
- Abstract(参考訳): 人間と流動的に対話する会話エージェントを構築するため、事前学習された言語モデルに知識や個人のプロファイルをブレンドする。
しかし、知識とペルソナを同時に考慮するモデルは依然として限定的であり、幻覚とペルソナの使用のパッシブな方法につながる。
外部知識とペルソナを同時に活用する効果的な対話エージェントを提案する。
エージェントは、ポリエンコーダで実装された候補スコアで回答を生成するために使用する適切な知識とペルソナを選択する。
そして,本モデルでは,知識人格拡張クエリを用いた検索拡張により,より少なめの幻覚とより親しみのある発話を生成する。
我々はペルソナ知識チャットの実験を行い、自動メトリクスに基づくグラウンドおよび生成タスクにおける最先端のパフォーマンスを達成する。
さらに,人間の評価と質的結果を通して,幻覚とエンゲージメントに関するモデルからの回答を検証する。
本稿では,他の検索者と比較して関連文書の抽出に有効であることを示すとともに,複数の候補スコアリング手法との比較を行った。
コードはhttps://github.com/dlawjddn803/infoで入手できる。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - Grounding in social media: An approach to building a chit-chat dialogue
model [9.247397520986999]
豊かな人間のような会話能力を持つオープンドメイン対話システムを構築することは、言語生成における根本的な課題の1つである。
知識に基づく対話生成に関する現在の研究は、主にウィキペディアのような事実に基づく構造化知識ソースを法人化または検索することに焦点を当てている。
本手法は,ソーシャルメディア上での人間の反応行動の模倣によって,システムの生会話能力を向上させることを目的とした,より広範かつシンプルなアプローチである。
論文 参考訳(メタデータ) (2022-06-12T09:01:57Z) - Towards Building a Personalized Dialogue Generator via Implicit User
Persona Detection [0.0]
高品質なトランスミッションは基本的に、相手のペルソナを反映して構築されていると考えています。
そこで本研究では,暗黙のユーザペルソナを検知する対話生成手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T08:12:10Z) - Call for Customized Conversation: Customized Conversation Grounding
Persona and Knowledge [25.378474996192438]
ユーザのペルソナとウィキペディアの知識によって、カスタマイズされた回答が構築される、カスタマイズされた会話データセットのためのコールを導入する。
事前学習した言語モデルの情報的およびカスタマイズされた発話を行う能力を評価する。
論文 参考訳(メタデータ) (2021-12-16T04:44:27Z) - Know Deeper: Knowledge-Conversation Cyclic Utilization Mechanism for
Open-domain Dialogue Generation [11.72386584395626]
エンドツーエンドのインテリジェントなニューラルダイアログシステムは、一貫性のない繰り返し応答を生成する問題に悩まされる。
既存の対話モデルは、対人関係の会話情報を対人情報の流れとして捉えた個人知識に組み込むことが、その後の会話の質を高めるという事実を無視しながら、対人関係の個人知識を一方的にダイアログに組み込むことに注意を払っている。
会話の一貫性を向上し、2つの折り畳みから繰り返しを緩和することを目的とした,会話適応型多視点対応対応型応答生成モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T08:59:06Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。