論文の概要: CoMAC: Conversational Agent for Multi-Source Auxiliary Context with Sparse and Symmetric Latent Interactions
- arxiv url: http://arxiv.org/abs/2503.19274v1
- Date: Tue, 25 Mar 2025 02:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:52:33.317820
- Title: CoMAC: Conversational Agent for Multi-Source Auxiliary Context with Sparse and Symmetric Latent Interactions
- Title(参考訳): CoMAC:スパースとシンメトリラテント相互作用を用いた多元補助文脈の会話エージェント
- Authors: Junfeng Liu, Christopher T. Symons, Ranga Raju Vatsavai,
- Abstract要約: 本稿では,スパース・シンメトリ・ラテントインタラクション(CoMAC)を用いたマルチソースコンテキストのための会話補助エージェント(Conversational Auxiliary Agent)を提案する。
CoMACは、会話に関連するペルソナと知識情報を特定するために、複数のデータソースに対して、特殊なエンコーディングストリームとポストフュージョングラウンドネットワークを使用している。
実験の結果、CoMACは2つの最先端手法に対して、関連するペルソナと知識予測精度と応答生成品質を大幅に改善することがわかった。
- 参考スコア(独自算出の注目度): 4.100095195067256
- License:
- Abstract: Recent advancements in AI-driven conversational agents have exhibited immense potential of AI applications. Effective response generation is crucial to the success of these agents. While extensive research has focused on leveraging multiple auxiliary data sources (e.g., knowledge bases and personas) to enhance response generation, existing methods often struggle to efficiently extract relevant information from these sources. There are still clear limitations in the ability to combine versatile conversational capabilities with adherence to known facts and adaptation to large variations in user preferences and belief systems, which continues to hinder the wide adoption of conversational AI tools. This paper introduces a novel method, Conversational Agent for Multi-Source Auxiliary Context with Sparse and Symmetric Latent Interactions (CoMAC), for conversation generation, which employs specialized encoding streams and post-fusion grounding networks for multiple data sources to identify relevant persona and knowledge information for the conversation. CoMAC also leverages a novel text similarity metric that allows bi-directional information sharing among multiple sources and focuses on a selective subset of meaningful words. Our experiments show that CoMAC improves the relevant persona and knowledge prediction accuracies and response generation quality significantly over two state-of-the-art methods.
- Abstract(参考訳): AI駆動型会話エージェントの最近の進歩は、AIアプリケーションの大きな可能性を示している。
これらの薬剤の成功には効果的な応答生成が不可欠である。
複数の補助的データソース(例えば知識ベースやペルソナ)を活用して応答生成を向上させる研究が盛んに行われているが、既存の手法ではこれらのソースから関連情報を効率的に抽出するのに苦労することが多い。
万能な会話能力と既知の事実への固執と、ユーザの好みや信念システムの大きなバリエーションへの適応とを組み合わせられる能力には、依然として明確な制限があり、会話AIツールの普及を妨げ続けている。
本稿では,複数のデータソースに対して,特別なエンコーディングストリームとポストフュージョングラウンドネットワークを用いて,会話に関連するペルソナと知識情報を識別する,会話生成のための,マルチソース補助的コンテキストとスパースおよびシンメティックラテントインタラクション(CoMAC)の会話エージェントを提案する。
CoMACはまた、複数のソース間で双方向の情報共有を可能にし、意味のある単語の選択的サブセットに焦点を当てる、新しいテキスト類似度指標も活用している。
実験の結果、CoMACは2つの最先端手法に対して、関連するペルソナと知識予測精度と応答生成品質を大幅に改善することがわかった。
関連論文リスト
- Multi-granular Training Strategies for Robust Multi-hop Reasoning Over Noisy and Heterogeneous Knowledge Sources [0.0]
マルチソースマルチホップ質問応答(QA)は自然言語処理における課題である。
既存の手法は、しばしばカスケードエラー、知識衝突の処理が不十分なこと、計算の非効率さに悩まされる。
パラメトリックおよび検索された知識を動的に融合する適応多元的知識指向推論(AMKOR)を提案する。
論文 参考訳(メタデータ) (2025-02-09T16:06:43Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices [91.71951459594074]
拡張コンテキストウィンドウを持つLong Language Model (LLM) は、情報抽出、質問応答、複雑な計画シナリオなどのタスクを大幅に改善した。
既存のメソッドは通常、Self-Instructフレームワークを使用して、長いコンテキスト能力を改善するために命令チューニングデータを生成する。
本稿では,品質検証エージェント,シングルホップ質問生成エージェント,複数質問サンプリング戦略,マルチホップ質問マーガーエージェントを組み込んだマルチエージェント対話型マルチホップ生成フレームワークを提案する。
以上の結果から,我々の合成高品位長文指導データにより,多量の人体で訓練したモデルよりも,モデル性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-03T13:30:00Z) - UniMS-RAG: A Unified Multi-source Retrieval-Augmented Generation for Personalized Dialogue Systems [43.266153244137215]
大規模言語モデル(LLM)は多くの自然言語理解および生成タスクにおいて例外的な機能を示している。
我々は、パーソナライズされた応答を3つのサブタスク(知識ソース選択、知識検索、応答生成)に分解する。
統一多ソース検索拡張生成システム(UniMS-RAG)を提案する。
論文 参考訳(メタデータ) (2024-01-24T06:50:20Z) - Context Retrieval via Normalized Contextual Latent Interaction for
Conversational Agent [3.9635467316436133]
本稿では,会話応答の質を向上させるために,関連情報を正確かつ効率的に識別できる新しい手法であるPK-NCLIを提案する。
実験の結果, PK-NCLIは, 難易度, 知識基盤, 訓練効率において, 最先端のPK-FoCuよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T18:53:51Z) - Persona-Coded Poly-Encoder: Persona-Guided Multi-Stream Conversational
Sentence Scoring [4.454629320045368]
本稿では,対話における応答生成の質を向上させるために,多ストリーム符号化方式におけるペルソナ情報を活用するペルソナ符号ポリエンコーダを提案する。
実験結果と分析により,本手法はBLEUスコアとHR@1の3.32%,2.94%の会話品質を向上できることが示された。
論文 参考訳(メタデータ) (2023-09-28T18:07:01Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - INSCIT: Information-Seeking Conversations with Mixed-Initiative
Interactions [47.90088587508672]
InSCItは、混合開始型インタラクションによる情報探索会話のためのデータセットである。
ユーザーエージェントは805対人会話から4.7Kである。
対話型知識認識とオープンドメイン質問応答の最先端モデルに基づく2つのシステムの結果を報告する。
論文 参考訳(メタデータ) (2022-07-02T06:18:12Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。