論文の概要: SUQL: Conversational Search over Structured and Unstructured Data with
Large Language Models
- arxiv url: http://arxiv.org/abs/2311.09818v2
- Date: Wed, 13 Mar 2024 17:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 17:58:21.685275
- Title: SUQL: Conversational Search over Structured and Unstructured Data with
Large Language Models
- Title(参考訳): SUQL: 構造化データと非構造化データに関する会話型検索
大規模言語モデル
- Authors: Shicheng Liu, Jialiang Xu, Wesley Tjangnaka, Sina J. Semnani, Chen Jie
Yu, Monica S. Lam
- Abstract要約: 本稿では、SUQLと呼ばれる言語を用いて、大規模知識コーパスのためのハイブリッドデータアクセスの完全な汎用性をサポートする最初の対話エージェントを提案する。
線形化に基づくベースラインの63.4%とは対照的に,SUQLに基づく会話エージェントでは,すべてのユーザの要求を満たすエンティティが90.3%であることがわかった。
- 参考スコア(独自算出の注目度): 7.347262319994813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While most conversational agents are grounded on either free-text or
structured knowledge, many knowledge corpora consist of hybrid sources. This
paper presents the first conversational agent that supports the full generality
of hybrid data access for large knowledge corpora, through a language we
developed called SUQL (Structured and Unstructured Query Language).
Specifically, SUQL extends SQL with free-text primitives (summary and answer),
so information retrieval can be composed with structured data accesses
arbitrarily in a formal, succinct, precise, and interpretable notation. With
SUQL, we propose the first semantic parser, an LLM with in-context learning,
that can handle hybrid data sources.
Our in-context learning-based approach, when applied to the HybridQA dataset,
comes within 8.9% exact match and 7.1% F1 of the SOTA, which was trained on 62K
data samples. More significantly, unlike previous approaches, our technique is
applicable to large databases and free-text corpora. We introduce a dataset
consisting of crowdsourced questions and conversations on Yelp, a large, real
restaurant knowledge base with structured and unstructured data. We show that
our few-shot conversational agent based on SUQL finds an entity satisfying all
user requirements 90.3% of the time, compared to 63.4% for a baseline based on
linearization.
- Abstract(参考訳): ほとんどの会話エージェントは自由テキストまたは構造化知識に基づいているが、多くの知識コーパスはハイブリッドソースで構成されている。
本稿では,SUQL(Structured and Unstructured Query Language)と呼ばれる言語を用いて,大規模知識コーパスに対するハイブリッドデータアクセスの完全汎用性をサポートする対話型エージェントを提案する。
具体的には、SUQLはSQLをフリーテキストプリミティブ(要約と回答)で拡張するので、情報検索は形式的、簡潔で、正確で、解釈可能な表記法で任意に構造化されたデータアクセスで構成することができる。
SUQLでは,ハイブリッドデータソースを処理可能な,コンテキスト内学習型LLMの最初のセマンティックパーサを提案する。
私たちのコンテキスト内学習ベースのアプローチは、HybridQAデータセットに適用すると、62Kデータサンプルに基づいてトレーニングされたSOTAの8.9%の正確な一致と7.1%のF1の範囲内になります。
さらに,従来の手法とは異なり,我々の手法は大規模データベースや自由テキストコーパスに適用可能である。
我々は、構造化された非構造化データを備えた、大規模でリアルなレストラン知識ベースであるYelpで、クラウドソーシングされた質問と会話からなるデータセットを紹介します。
線形化に基づくベースラインの63.4%とは対照的に,SUQLに基づく会話エージェントでは,すべてのユーザの要求を満たすエンティティが90.3%であることがわかった。
関連論文リスト
- Knowledge-Aware Query Expansion with Large Language Models for Textual and Relational Retrieval [49.42043077545341]
知識グラフ(KG)から構造化文書関係を付加したLLMを拡張した知識対応クエリ拡張フレームワークを提案する。
文書テキストをリッチなKGノード表現として活用し、KAR(Knowledge-Aware Retrieval)のための文書ベースの関係フィルタリングを利用する。
論文 参考訳(メタデータ) (2024-10-17T17:03:23Z) - Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - SRFUND: A Multi-Granularity Hierarchical Structure Reconstruction Benchmark in Form Understanding [55.48936731641802]
階層的に構造化されたマルチタスク形式理解ベンチマークであるSRFUNDを提案する。
SRFUNDはオリジナルのFUNSDとXFUNDデータセットの上に洗練されたアノテーションを提供する。
データセットには、英語、中国語、日本語、ドイツ語、フランス語、スペイン語、イタリア語、ポルトガル語を含む8つの言語が含まれている。
論文 参考訳(メタデータ) (2024-06-13T02:35:55Z) - STaRK: Benchmarking LLM Retrieval on Textual and Relational Knowledge Bases [93.96463520716759]
テキストと知識ベースを用いた大規模半構造検索ベンチマークSTARKを開発した。
本ベンチマークでは, 製品検索, 学術論文検索, 精密医療におけるクエリの3分野について検討した。
多様なリレーショナル情報と複雑なテキスト特性を統合した,現実的なユーザクエリを合成する,新しいパイプラインを設計する。
論文 参考訳(メタデータ) (2024-04-19T22:54:54Z) - NL2KQL: From Natural Language to Kusto Query [1.7931930942711818]
NL2KQLは、大規模言語モデル(LLM)を使用して自然言語クエリ(NLQ)をKusto Query Language(KQL)クエリに変換する革新的なフレームワークである。
NL2KQLのパフォーマンスを検証するために、オンライン(クエリ実行に基づく)とオフライン(クエリ解析に基づく)メトリクスの配列を使用します。
論文 参考訳(メタデータ) (2024-04-03T01:09:41Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Text-to-OverpassQL: A Natural Language Interface for Complex Geodata
Querying of OpenStreetMap [17.01783992725517]
OpenStreetMap (OSM)からジオデータをクエリするための自然言語インタフェースを容易にするタスクであるText-to-OverpassQLを提案する。
自然言語入力からOverpassクエリを生成することは、複数のユースケースに役立つ。
論文 参考訳(メタデータ) (2023-08-30T14:33:25Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - ColloQL: Robust Cross-Domain Text-to-SQL Over Search Queries [10.273545005890496]
データ拡張技術とサンプリングベースコンテンツ対応BERTモデル(ColloQL)を紹介する。
ColloQLは、Wikilogicalデータセット上で84.9%(実行)と90.7%(実行)の精度を達成する。
論文 参考訳(メタデータ) (2020-10-19T23:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。