論文の概要: $R^3$-NL2GQL: A Model Coordination and Knowledge Graph Alignment Approach for NL2GQL
- arxiv url: http://arxiv.org/abs/2311.01862v2
- Date: Mon, 1 Jul 2024 14:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 17:40:31.667351
- Title: $R^3$-NL2GQL: A Model Coordination and Knowledge Graph Alignment Approach for NL2GQL
- Title(参考訳): $R^3$-NL2GQL: NL2GQLのモデルコーディネートと知識グラフアライメントアプローチ
- Authors: Yuhang Zhou, Yu He, Siyu Tian, Yuchen Ni, Zhangyue Yin, Xiang Liu, Chuanjun Ji, Sen Liu, Xipeng Qiu, Guangnan Ye, Hongfeng Chai,
- Abstract要約: 我々はR3$-NL2GQLという新しいアプローチを導入し、ランク付け、書き換え、タスクの精錬のために、小規模と大規模なファンデーションモデルを統合する。
我々は、グラフデータベースマニュアルと選択されたオープンソース知識グラフ(KGs)を基にしたバイリンガルデータセットを開発した。
- 参考スコア(独自算出の注目度): 45.13624736815995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current tasks of converting natural language to SQL (NL2SQL) using Foundation Models have shown impressive achievements, adapting these approaches for converting natural language to Graph Query Language (NL2GQL) encounters hurdles due to the distinct nature of GQL compared to SQL, alongside the diverse forms of GQL. Moving away from traditional rule-based and slot-filling methodologies, we introduce a novel approach, $R^3$-NL2GQL, integrating both small and large Foundation Models for ranking, rewriting, and refining tasks. This method leverages the interpretative strengths of smaller models for initial ranking and rewriting stages, while capitalizing on the superior generalization and query generation prowess of larger models for the final transformation of natural language queries into GQL formats. Addressing the scarcity of datasets in this emerging field, we have developed a bilingual dataset, sourced from graph database manuals and selected open-source Knowledge Graphs (KGs). Our evaluation of this methodology on this dataset demonstrates its promising efficacy and robustness.
- Abstract(参考訳): Foundation Modelsを使用して自然言語をSQL(NL2SQL)に変換するという現在のタスクは目覚ましい成果を上げているが、自然言語をグラフクエリ言語(NL2GQL)に変換するこれらのアプローチは、GQLとSQLの異なる性質から、さまざまな形式のGQLとともにハードルに直面する。
従来のルールベースとスロットフィリングの方法論から離れ、新しいアプローチである$R^3$-NL2GQLを導入します。
本手法は,自然言語クエリをGQL形式に変換する上で,より優れた一般化とクエリ生成技術を活用しながら,初期ランク付けと書き換えの段階において,より小さなモデルの解釈的強みを利用する。
この新興分野におけるデータセットの不足に対処するため、我々は、グラフデータベースマニュアルと選択されたオープンソース知識グラフ(KG)を基にしたバイリンガルデータセットを開発した。
本手法の評価は,その有望な有効性と堅牢性を示すものである。
関連論文リスト
- Towards Evaluating Large Language Models for Graph Query Generation [49.49881799107061]
大言語モデル(LLM)は、生成人工知能(GenAI)の景観に革命をもたらしている
本稿では,オープンアクセス LLM を用いてグラフデータベースと対話する強力な言語としてクエリを生成することの課題について比較検討する。
クエリ生成精度を実証的に分析したところ、Claude Sonnet 3.5は特定のドメインでそれよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-13T09:11:56Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - NL2KQL: From Natural Language to Kusto Query [1.7931930942711818]
NL2KQLは、大規模言語モデル(LLM)を使用して自然言語クエリ(NLQ)をKusto Query Language(KQL)クエリに変換する革新的なフレームワークである。
NL2KQLのパフォーマンスを検証するために、オンライン(クエリ実行に基づく)とオフライン(クエリ解析に基づく)メトリクスの配列を使用します。
論文 参考訳(メタデータ) (2024-04-03T01:09:41Z) - Aligning Large Language Models to a Domain-specific Graph Database for NL2GQL [16.637504932927616]
特定のドメインに合わせてNL2GQLタスクを適切に定義したパイプラインを提示する。
我々はChatGPTを用いてNLGQLデータペアを生成し、提供されたグラフDBを自己命令で活用する。
次に、生成されたデータを用いてLLMを微調整し、LLMとグラフDBの整合性を確保する。
論文 参考訳(メタデータ) (2024-02-26T13:46:51Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - An Inference Approach To Question Answering Over Knowledge Graphs [7.989723691844202]
本研究では,知識グラフ上の自然言語クエリの問題を前提-仮説ペア上の推論問題に変換する。
提案手法は,MetaQAデータセット上で90%以上の精度を達成し,既存の最先端技術を上回っている。
我々のアプローチでは、異なるドメインからの新しい知識グラフをクエリするために、大きなドメイン固有のトレーニングデータを必要としない。
論文 参考訳(メタデータ) (2021-12-21T10:07:55Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z) - ColloQL: Robust Cross-Domain Text-to-SQL Over Search Queries [10.273545005890496]
データ拡張技術とサンプリングベースコンテンツ対応BERTモデル(ColloQL)を紹介する。
ColloQLは、Wikilogicalデータセット上で84.9%(実行)と90.7%(実行)の精度を達成する。
論文 参考訳(メタデータ) (2020-10-19T23:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。