論文の概要: How to Leverage Personal Textual Knowledge for Personalized Conversational Information Retrieval
- arxiv url: http://arxiv.org/abs/2407.16192v1
- Date: Tue, 23 Jul 2024 05:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:35:54.517539
- Title: How to Leverage Personal Textual Knowledge for Personalized Conversational Information Retrieval
- Title(参考訳): パーソナライズされた会話情報検索のための個人的テキスト知識の活用方法
- Authors: Fengran Mo, Longxiang Zhao, Kaiyu Huang, Yue Dong, Degen Huang, Jian-Yun Nie,
- Abstract要約: 鍵となる約束は、パーソナルテキスト知識ベース(PTKB)がパーソナライズされた情報検索の有効性を向上させることである。
本稿では,PTKBから知識を抽出し,大規模言語モデル(LLM)を用いてクエリ再構成に利用するいくつかの方法について検討・検証する。
- 参考スコア(独自算出の注目度): 30.95983272862107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized conversational information retrieval (CIR) combines conversational and personalizable elements to satisfy various users' complex information needs through multi-turn interaction based on their backgrounds. The key promise is that the personal textual knowledge base (PTKB) can improve the CIR effectiveness because the retrieval results can be more related to the user's background. However, PTKB is noisy: not every piece of knowledge in PTKB is relevant to the specific query at hand. In this paper, we explore and test several ways to select knowledge from PTKB and use it for query reformulation by using a large language model (LLM). The experimental results show the PTKB might not always improve the search results when used alone, but LLM can help generate a more appropriate personalized query when high-quality guidance is provided.
- Abstract(参考訳): パーソナライズされた会話情報検索(CIR)は、会話可能な要素とパーソナライズ可能な要素を組み合わせて、背景に基づくマルチターンインタラクションを通じて、様々なユーザの複雑な情報ニーズを満たす。
鍵となる約束は、個人のテキスト知識ベース(PTKB)が、検索結果がユーザのバックグラウンドとより関係があるため、CIRの有効性を改善することである。
しかし、PTKBはノイズが多く、PTKBのすべての知識が、手元にある特定のクエリに関連するわけではない。
本稿では,PTKB から知識を抽出し,それを大規模言語モデル (LLM) を用いてクエリ再構成に利用する方法を探索し,検証する。
実験の結果、PTKBは単独で使用すると検索結果を常に改善するわけではないが、高品質なガイダンスが提供されると、LLMはより適切なパーソナライズされたクエリを生成するのに役立つことがわかった。
関連論文リスト
- Redefining Information Retrieval of Structured Database via Large Language Models [9.65171883231521]
本稿では,ChatLRと呼ばれる新しい検索拡張フレームワークを提案する。
主に、Large Language Models (LLM) の強力な意味理解能力を用いて、正確かつ簡潔な情報検索を実現する。
実験の結果、ChatLRがユーザクエリに対処する効果を示し、全体の情報検索精度は98.8%を超えた。
論文 参考訳(メタデータ) (2024-05-09T02:37:53Z) - Dissecting Paraphrases: The Impact of Prompt Syntax and supplementary Information on Knowledge Retrieval from Pretrained Language Models [8.588056811772693]
ConPARE-LAMAは、3400万の異なるプロンプトからなるプローブで、最小限のパラフレーズ間での比較を容易にする。
ConPARE-LAMAは, PLMの知識検索性能に対する統語的形態や意味情報の独立的な影響についての洞察を可能にする。
論文 参考訳(メタデータ) (2024-04-02T14:35:08Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Low-resource Personal Attribute Prediction from Conversation [20.873276038560057]
会話から個人属性を予測するための新しいフレームワークPEARLを提案する。
PEARLは、更新された先行属性知識を用いて、両項意味情報と単語共起情報とをシームレスに結合する。
論文 参考訳(メタデータ) (2022-11-28T14:04:51Z) - QA Is the New KR: Question-Answer Pairs as Knowledge Bases [105.692569000534]
提案するKBの形式は,従来のシンボリックKBの重要な利点を多く備えている,と我々は主張する。
従来のKBとは異なり、この情報ストアは一般的なユーザ情報のニーズによく適合している。
論文 参考訳(メタデータ) (2022-07-01T19:09:08Z) - Learning Knowledge Bases with Parameters for Task-Oriented Dialogue
Systems [79.02430277138801]
知識ベース(KB)は、ユーザの要求を満たす上で重要な役割を担います。
エンド・ツー・エンドのシステムは直接KBを入力として使用するが、KBが数百のエントリより大きい場合にはスケールできない。
モデルパラメータに直接KBを埋め込む手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T22:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。