論文の概要: Context Retrieval via Normalized Contextual Latent Interaction for
Conversational Agent
- arxiv url: http://arxiv.org/abs/2312.00774v1
- Date: Fri, 1 Dec 2023 18:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 13:37:14.181874
- Title: Context Retrieval via Normalized Contextual Latent Interaction for
Conversational Agent
- Title(参考訳): 会話エージェントのための正規化文脈潜在相互作用による文脈検索
- Authors: Junfeng Liu, Zhuocheng Mei, Kewen Peng, Ranga Raju Vatsavai
- Abstract要約: 本稿では,会話応答の質を向上させるために,関連情報を正確かつ効率的に識別できる新しい手法であるPK-NCLIを提案する。
実験の結果, PK-NCLIは, 難易度, 知識基盤, 訓練効率において, 最先端のPK-FoCuよりも優れていた。
- 参考スコア(独自算出の注目度): 3.9635467316436133
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversational agents leveraging AI, particularly deep learning, are emerging
in both academic research and real-world applications. However, these
applications still face challenges, including disrespecting knowledge and
facts, not personalizing to user preferences, and enormous demand for
computational resources during training and inference. Recent research efforts
have been focused on addressing these challenges from various aspects,
including supplementing various types of auxiliary information to the
conversational agents. However, existing methods are still not able to
effectively and efficiently exploit relevant information from these auxiliary
supplements to further unleash the power of the conversational agents and the
language models they use. In this paper, we present a novel method, PK-NCLI,
that is able to accurately and efficiently identify relevant auxiliary
information to improve the quality of conversational responses by learning the
relevance among persona, chat history, and knowledge background through
low-level normalized contextual latent interaction. Our experimental results
indicate that PK-NCLI outperforms the state-of-the-art method, PK-FoCus, by
47.80%/30.61%/24.14% in terms of perplexity, knowledge grounding, and training
efficiency, respectively, and maintained the same level of persona grounding
performance. We also provide a detailed analysis of how different factors,
including language model choices and trade-offs on training weights, would
affect the performance of PK-NCLI.
- Abstract(参考訳): AIを活用する会話エージェント、特にディープラーニングは、学術研究と現実世界のアプリケーションの両方に現れている。
しかしながら、これらのアプリケーションは、知識や事実を軽視すること、ユーザの好みをパーソナライズしないこと、トレーニングや推論中に計算リソースの膨大な需要など、依然として課題に直面している。
近年,会話エージェントに様々な補助情報を補うなど,様々な側面からこれらの課題に対処する研究が進められている。
しかし、既存の手法では、これらの補助サプリメントの関連情報を効果的かつ効率的に活用できないため、会話エージェントとその使用する言語モデルの力を更に解き放つことができる。
本稿では,人間,チャット履歴,知識背景の関連性を低レベル正規化コンテキスト潜在インタラクションを通じて学習することにより,適切な補助情報を正確かつ効率的に識別し,会話応答の質を向上させる新しい手法であるpk-ncliを提案する。
実験の結果, PK-NCLIはPK-FoCusよりも47.80%/30.61%/24.14%, 難易度, 知識基盤, 訓練効率が優れ, 同一の対人グラウンド性能を維持した。
また,言語モデルの選択やトレーニング重量のトレードオフなど,さまざまな要因がPK-NCLIの性能に与える影響を詳細に分析する。
関連論文リスト
- Prompting Explicit and Implicit Knowledge for Multi-hop Question
Answering Based on Human Reading Process [6.859924535964797]
心理学的研究は、通過中の明示的な情報と読書中の人間の事前知識の間に重要なつながりがあることを示唆している。
本稿では,明示的知識と暗黙的知識を結び付けるためにプロンプトを利用するPmpting Explicit and Implicit Knowledge (PEI)フレームワークを提案する。
我々のモデルは、暗黙の知識の形式であるプロンプトによる型固有の推論を取り入れている。
論文 参考訳(メタデータ) (2024-02-29T16:56:36Z) - Improving Factual Consistency for Knowledge-Grounded Dialogue Systems
via Knowledge Enhancement and Alignment [77.56326872997407]
事前訓練言語モデル(PLM)に基づく知識基底対話システムは、提供された知識源と実際に矛盾しない応答を生成する傾向にある。
トランスフォーマー内のフィードフォワードネットワーク(FFN)が事実知識表現の責任を負っていると判断する以前の研究から着想を得て,事実表現能力を効率的に改善するための2つの方法を検討した。
論文 参考訳(メタデータ) (2023-10-12T14:44:05Z) - Persona-Coded Poly-Encoder: Persona-Guided Multi-Stream Conversational
Sentence Scoring [4.454629320045368]
本稿では,対話における応答生成の質を向上させるために,多ストリーム符号化方式におけるペルソナ情報を活用するペルソナ符号ポリエンコーダを提案する。
実験結果と分析により,本手法はBLEUスコアとHR@1の3.32%,2.94%の会話品質を向上できることが示された。
論文 参考訳(メタデータ) (2023-09-28T18:07:01Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Asking Before Action: Gather Information in Embodied Decision Making
with Language Models [9.167993825872102]
本研究では,Large Language Models (LLMs) が不慣れな環境にデプロイした場合,必要な情報を効率的に収集する上で,課題に直面していることを示す。
Askingtextit Before Action (ABA) は、自然言語を用いて外部ソースを積極的にクエリする手法である。
提案手法を具体化意思決定ベンチマークであるALFWorldで実証的に評価し,本手法がベースラインLLMエージェントを40ドル以上超えることを示した。
論文 参考訳(メタデータ) (2023-05-25T04:05:08Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - FCC: Fusing Conversation History and Candidate Provenance for Contextual
Response Ranking in Dialogue Systems [53.89014188309486]
複数のチャネルからコンテキスト情報を統合できるフレキシブルなニューラルネットワークフレームワークを提案する。
会話応答ランキングタスクの評価に広く用いられているMSDialogデータセット上で,本モデルの評価を行った。
論文 参考訳(メタデータ) (2023-03-31T23:58:28Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - PK-ICR: Persona-Knowledge Interactive Context Retrieval for Grounded
Dialogue [23.232025942333387]
ペルソナとナレッジ デュアルコンテキスト識別(ペルソナとナレッジ コンテクストの同定)は、与えられた対話において、ペルソナとナレッジを共同で識別するタスクである。
我々は,対話のすべての文脈を同時に活用する新しい接地検索手法を開発した。
論文 参考訳(メタデータ) (2023-02-13T20:27:26Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。