論文の概要: UniRQR: A Unified Model for Retrieval Decision, Query, and Response
Generation in Internet-Based Knowledge Dialogue Systems
- arxiv url: http://arxiv.org/abs/2401.06811v1
- Date: Thu, 11 Jan 2024 06:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 10:15:54.589352
- Title: UniRQR: A Unified Model for Retrieval Decision, Query, and Response
Generation in Internet-Based Knowledge Dialogue Systems
- Title(参考訳): unirqr:インターネットベースの知識対話システムにおける検索決定・クエリ・応答生成のための統一モデル
- Authors: Zhongtian Hu, Yangqi Chen, Meng Zhao, Ronghan Li, Lifang Wang
- Abstract要約: インターネット検索による知識ベースの対話システムは、通常、検索決定、クエリ生成、レスポンス生成の3つのタスクに分けられる。
我々の研究は、プロンプトおよびマルチタスク学習アプローチによって促進される単一の統一モデルを用いることで、この監視に対処する。
これらの機能を統合することで、事前訓練されたモデルの潜在能力をフル活用し、複数のモデルのデプロイに伴う複雑さとコストを削減する。
- 参考スコア(独自算出の注目度): 8.724141214921314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge-based dialogue systems with internet retrieval have recently
attracted considerable attention from researchers. The dialogue systems
overcome a major limitation of traditional knowledge dialogue systems, where
the timeliness of knowledge cannot be assured, hence providing greater
practical application value. Knowledge-based dialogue systems with internet
retrieval can be typically segmented into three tasks: Retrieval Decision,
Query Generation, and Response Generation. However, many of studies assumed
that all conversations require external knowledge to continue, neglecting the
critical step of determining when retrieval is necessary. This assumption often
leads to an over-dependence on external knowledge, even when it may not be
required. Our work addresses this oversight by employing a single unified model
facilitated by prompt and multi-task learning approaches. This model not only
decides whether retrieval is necessary but also generates retrieval queries and
responses. By integrating these functions, our system leverages the full
potential of pre-trained models and reduces the complexity and costs associated
with deploying multiple models. We conducted extensive experiments to
investigate the mutual enhancement among the three tasks in our system. What is
more, the experiment results on the Wizint and Dusinc datasets not only
demonstrate that our unified model surpasses the baseline performance for
individual tasks, but also reveal that it achieves comparable results when
contrasted with SOTA systems that deploy separate, specialized models for each
task.
- Abstract(参考訳): インターネット検索による知識ベース対話システムは近年,研究者の注目を集めている。
対話システムは、知識のタイムラインを保証できない従来の知識対話システムの大きな制限を克服し、より実用的な応用価値を提供する。
インターネット検索を伴う知識に基づく対話システムは、検索決定、クエリ生成、応答生成の3つのタスクに分類できる。
しかし、多くの研究は、全ての会話が外部知識の継続を必要とし、いつ検索が必要かを決定する重要なステップを無視していると仮定した。
この仮定は、必要とされない場合であっても、外部の知識に過度に依存することが多い。
我々の研究は、プロンプトおよびマルチタスク学習アプローチによって促進される単一の統一モデルを用いることで、この監視に対処する。
このモデルは,検索が必要かどうかを判断するだけでなく,検索クエリや応答を生成する。
これらの機能を統合することで、事前訓練されたモデルの潜在能力をフル活用し、複数のモデルのデプロイに伴う複雑さとコストを削減する。
システムにおける3つのタスク間の相互強化を検討するために,広範な実験を行った。
さらに、WizintとDusincのデータセットの実験結果は、統一されたモデルが個々のタスクのベースラインのパフォーマンスを上回っているだけでなく、タスクごとに個別のモデルをデプロイするSOTAシステムと対照的に、同等の結果が得られることを示している。
関連論文リスト
- Open-Ended and Knowledge-Intensive Video Question Answering [20.256081440725353]
知識集約型ビデオ質問応答 (KI-VideoQA) を多モード検索拡張世代のレンズを用いて検討する。
本稿では,最先端の検索モデルと視覚言語モデルを用いて,様々な検索拡張手法について検討する。
我々は、KnowIT VQAデータセットにおいて、複数の選択質問に対する精度を17.5%向上させる。
論文 参考訳(メタデータ) (2025-02-17T12:40:35Z) - UniMS-RAG: A Unified Multi-source Retrieval-Augmented Generation for Personalized Dialogue Systems [43.266153244137215]
大規模言語モデル(LLM)は多くの自然言語理解および生成タスクにおいて例外的な機能を示している。
我々は、パーソナライズされた応答を3つのサブタスク(知識ソース選択、知識検索、応答生成)に分解する。
統一多ソース検索拡張生成システム(UniMS-RAG)を提案する。
論文 参考訳(メタデータ) (2024-01-24T06:50:20Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - Knowledge-Grounded Dialogue Generation with a Unified Knowledge
Representation [78.85622982191522]
既存のシステムは、トレーニングデータでカバーされる限られたトピックのために、目に見えないトピックでうまく機能しない。
本稿では,異なる知識源を均質化した言語モデルであるPLUGについて述べる。
完全に教師された設定の下で最先端のメソッドと同等のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2021-12-15T07:11:02Z) - Continual Learning in Task-Oriented Dialogue Systems [49.35627673523519]
タスク指向対話システムにおける継続的な学習は、システム全体のリトレーニングのコストを伴わずに、時間を通じて新しいドメインや機能を追加できる。
37ドメインのタスク指向対話システムを4つの設定で継続的に学習するための継続的学習ベンチマークを提案する。
論文 参考訳(メタデータ) (2020-12-31T08:44:25Z) - Learning to Retrieve Entity-Aware Knowledge and Generate Responses with
Copy Mechanism for Task-Oriented Dialogue Systems [43.57597820119909]
第9回対話システム技術チャレンジ(DSTC 9)のトラック1として非構造化知識アクセスを用いたタスク指向対話型モデリング
この課題は,(1)知識探索ターン検出,(2)知識選択,(3)知識接地応答生成の3つのサブタスクに分けることができる。
我々は、異なるサブタスクのベースエンコーダとして、事前訓練された言語モデルELECTRAとRoBERTaを使用します。
論文 参考訳(メタデータ) (2020-12-22T11:36:37Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。