論文の概要: $R^3$-NL2GQL: A Hybrid Models Approach for for Accuracy Enhancing and
Hallucinations Mitigation
- arxiv url: http://arxiv.org/abs/2311.01862v1
- Date: Fri, 3 Nov 2023 12:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:23:16.943507
- Title: $R^3$-NL2GQL: A Hybrid Models Approach for for Accuracy Enhancing and
Hallucinations Mitigation
- Title(参考訳): R^3$-NL2GQL: 精度向上と幻覚軽減のためのハイブリッドモデルアプローチ
- Authors: Yuhang Zhou and He Yu and Siyu Tian and Dan Chen and Liuzhi Zhou and
Xinlin Yu and Chuanjun Ji and Sen Liu and Guangnan Ye and Hongfeng Chai
- Abstract要約: R3-NL2GQLは、より小型で大型のFoundation Modelsをリランカー、リライター、精錬機として採用している。
我々は、グラフデータベースドキュメントとオープンソースの知識グラフ(KG)から派生したバイリンガルデータセットを作成しました。
- 参考スコア(独自算出の注目度): 5.516657765066864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current NL2SQL tasks constructed using Foundation Models have achieved
commendable results, their direct application to Natural Language to Graph
Query Language (NL2GQL) tasks poses challenges due to the significant
differences between GQL and SQL expressions, as well as the numerous types of
GQL. Our extensive experiments reveal that in NL2GQL tasks, larger Foundation
Models demonstrate superior cross-schema generalization abilities, while
smaller Foundation Models struggle to improve their GQL generation capabilities
through fine-tuning. However, after fine-tuning, smaller models exhibit better
intent comprehension and higher grammatical accuracy. Diverging from rule-based
and slot-filling techniques, we introduce R3-NL2GQL, which employs both smaller
and larger Foundation Models as reranker, rewriter and refiner. The approach
harnesses the comprehension ability of smaller models for information reranker
and rewriter, and the exceptional generalization and generation capabilities of
larger models to transform input natural language queries and code structure
schema into any form of GQLs. Recognizing the lack of established datasets in
this nascent domain, we have created a bilingual dataset derived from graph
database documentation and some open-source Knowledge Graphs (KGs). We tested
our approach on this dataset and the experimental results showed that delivers
promising performance and robustness.Our code and dataset is available at
https://github.com/zhiqix/NL2GQL
- Abstract(参考訳): 現在のNL2SQLタスクはFoundation Modelsを使用して構築されているが、自然言語からグラフクエリ言語(NL2GQL)への直接的な適用は、GQLとSQL式と、さまざまなタイプのGQLとの大きな違いから、課題を引き起こしている。
我々の広範な実験によると、NL2GQLタスクでは、より大きなファウンデーションモデルが優れたスキーマ間一般化能力を示し、小さなファウンデーションモデルは微調整によってGQL生成能力を改善するのに苦労している。
しかし、微調整後、より小さなモデルはより優れた意図理解と文法的精度を示す。
R3-NL2GQLは,ルールベースとスロットフィリング技術から切り離され,より小型かつ大規模のファンデーションモデルの両方をリランカ,リライタ,精錬機として採用する。
このアプローチは、インフォメーションリランカとリライターのための小さなモデルの理解能力と、入力された自然言語クエリとコード構造スキーマを任意の形式でGQLに変換するための、より大きなモデルの例外的な一般化と生成能力を活用する。
この初期段階のドメインに確立されたデータセットがないことを認識し、グラフデータベースドキュメントとオープンソースの知識グラフ(KG)から派生したバイリンガルデータセットを作成しました。
このデータセット上でこのアプローチをテストした結果、有望なパフォーマンスと堅牢性が得られた。コードとデータセットはhttps://github.com/zhiqix/nl2gqlで利用可能である。
関連論文リスト
- Towards Evaluating Large Language Models for Graph Query Generation [49.49881799107061]
大言語モデル(LLM)は、生成人工知能(GenAI)の景観に革命をもたらしている
本稿では,オープンアクセス LLM を用いてグラフデータベースと対話する強力な言語としてクエリを生成することの課題について比較検討する。
クエリ生成精度を実証的に分析したところ、Claude Sonnet 3.5は特定のドメインでそれよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-13T09:11:56Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - NL2KQL: From Natural Language to Kusto Query [1.7931930942711818]
NL2KQLは、大規模言語モデル(LLM)を使用して自然言語クエリ(NLQ)をKusto Query Language(KQL)クエリに変換する革新的なフレームワークである。
NL2KQLのパフォーマンスを検証するために、オンライン(クエリ実行に基づく)とオフライン(クエリ解析に基づく)メトリクスの配列を使用します。
論文 参考訳(メタデータ) (2024-04-03T01:09:41Z) - Aligning Large Language Models to a Domain-specific Graph Database for NL2GQL [16.637504932927616]
特定のドメインに合わせてNL2GQLタスクを適切に定義したパイプラインを提示する。
我々はChatGPTを用いてNLGQLデータペアを生成し、提供されたグラフDBを自己命令で活用する。
次に、生成されたデータを用いてLLMを微調整し、LLMとグラフDBの整合性を確保する。
論文 参考訳(メタデータ) (2024-02-26T13:46:51Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - An Inference Approach To Question Answering Over Knowledge Graphs [7.989723691844202]
本研究では,知識グラフ上の自然言語クエリの問題を前提-仮説ペア上の推論問題に変換する。
提案手法は,MetaQAデータセット上で90%以上の精度を達成し,既存の最先端技術を上回っている。
我々のアプローチでは、異なるドメインからの新しい知識グラフをクエリするために、大きなドメイン固有のトレーニングデータを必要としない。
論文 参考訳(メタデータ) (2021-12-21T10:07:55Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z) - ColloQL: Robust Cross-Domain Text-to-SQL Over Search Queries [10.273545005890496]
データ拡張技術とサンプリングベースコンテンツ対応BERTモデル(ColloQL)を紹介する。
ColloQLは、Wikilogicalデータセット上で84.9%(実行)と90.7%(実行)の精度を達成する。
論文 参考訳(メタデータ) (2020-10-19T23:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。