論文の概要: Enhancing Text2Cypher with Schema Filtering
- arxiv url: http://arxiv.org/abs/2505.05118v1
- Date: Thu, 08 May 2025 10:42:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.846854
- Title: Enhancing Text2Cypher with Schema Filtering
- Title(参考訳): スキーマフィルタリングによるText2Cypherの強化
- Authors: Makbule Gulcin Ozsoy,
- Abstract要約: Cypherはグラフデータベースのための強力なクエリ言語である。
近年の大規模言語モデルの進歩により、自然言語の質問をCypherクエリ - Text2Cypherに翻訳できるようになった。
本研究では、Text2Cypherタスクのさまざまなスキーマフィルタリング方法を検討し、トークンの長さ、パフォーマンス、コストへの影響を分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Knowledge graphs represent complex data using nodes, relationships, and properties. Cypher, a powerful query language for graph databases, enables efficient modeling and querying. Recent advancements in large language models allow translation of natural language questions into Cypher queries - Text2Cypher. A common approach is incorporating database schema into prompts. However, complex schemas can introduce noise, increase hallucinations, and raise computational costs. Schema filtering addresses these challenges by including only relevant schema elements, improving query generation while reducing token costs. This work explores various schema filtering methods for Text2Cypher task and analyzes their impact on token length, performance, and cost. Results show that schema filtering effectively optimizes Text2Cypher, especially for smaller models. Consistent with prior research, we find that larger models benefit less from schema filtering due to their longer context capabilities. However, schema filtering remains valuable for both larger and smaller models in cost reduction.
- Abstract(参考訳): 知識グラフは、ノード、関係、プロパティを使って複雑なデータを表現します。
グラフデータベース用の強力なクエリ言語であるCypherは、効率的なモデリングとクエリを可能にする。
近年の大規模言語モデルの進歩により、自然言語の質問をCypherクエリ - Text2Cypherに翻訳できるようになった。
一般的なアプローチは、データベーススキーマをプロンプトに組み込むことである。
しかし、複雑なスキーマはノイズを導入し、幻覚を高め、計算コストを上げることができる。
スキーマフィルタリングは、関連するスキーマ要素のみを含むことでこれらの課題に対処し、トークンコストを削減しながらクエリ生成を改善する。
本研究では、Text2Cypherタスクのさまざまなスキーマフィルタリング方法を検討し、トークンの長さ、パフォーマンス、コストへの影響を分析する。
その結果、スキーマフィルタリングはText2Cypherを特に小さなモデルで効果的に最適化することがわかった。
以前の研究では、より長いコンテキスト能力のため、より大きなモデルはスキーマフィルタリングの恩恵を受けないことがわかった。
しかし、スキーマフィルタリングは、コスト削減における大型モデルと小型モデルの両方にとって、依然として有用である。
関連論文リスト
- Extractive Schema Linking for Text-to-SQL [17.757832644216446]
テキスト・トゥ・ワンは、現実世界のデータベースの実用的なインターフェースとして現れつつある。
本稿では,デコーダのみのLLMをスキーマリンクに適用するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-23T19:57:08Z) - Text2Cypher: Bridging Natural Language and Graph Databases [0.3774866290142281]
Text2Cypherは、自然言語クエリをCypherクエリ言語に変換することで、このギャップを埋めることを目指している。
公開されているいくつかのデータセットを合計44,387のインスタンスに組み合わせ、整理し、整理した方法について説明している。
論文 参考訳(メタデータ) (2024-12-13T11:50:51Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - The Death of Schema Linking? Text-to-SQL in the Age of Well-Reasoned Language Models [0.9149661171430259]
次世代の大規模言語モデル(LLM)を使用する場合のスキーマリンクを再検討する。
より新しいモデルでは,無関係なモデルが多数存在する場合でも,生成時に関連するスキーマ要素を利用することが可能であることが実証的に判明した。
文脈情報をフィルタリングする代わりに、拡張、選択、修正などのテクニックを強調し、テキストからBIRDパイプラインの精度を向上させるためにそれらを採用する。
論文 参考訳(メタデータ) (2024-08-14T17:59:04Z) - CRUSH4SQL: Collective Retrieval Using Schema Hallucination For Text2SQL [47.14954737590405]
既存のテキストからテキストへのジェネレータでは、スキーマ全体をユーザテキストでエンコードする必要がある。
大規模な構造化データベースをサブセット化するのに、標準的な高密度検索技術は不十分である。
大規模データベース上でスキーマサブセットを作成するためのベンチマークを3つ導入する。
論文 参考訳(メタデータ) (2023-11-02T12:13:52Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Improving Text-to-SQL Semantic Parsing with Fine-grained Query
Understanding [84.04706075621013]
トークンレベルのきめ細かいクエリ理解に基づく汎用的モジュール型ニューラルネットワーク解析フレームワークを提案する。
我々のフレームワークは、名前付きエンティティ認識(NER)、ニューラルエンティティリンカ(NEL)、ニューラルエンティティリンカ(NSP)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2022-09-28T21:00:30Z) - Proton: Probing Schema Linking Information from Pre-trained Language
Models for Text-to-SQL Parsing [66.55478402233399]
本稿では,ポアンカー距離測定に基づく探索手法を用いて,関係構造を抽出する枠組みを提案する。
スキーマリンクの一般的なルールベース手法と比較して,探索関係は意味的対応をしっかりと捉えることができることがわかった。
我々のフレームワークは3つのベンチマークで最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2022-06-28T14:05:25Z) - ShadowGNN: Graph Projection Neural Network for Text-to-SQL Parser [36.12921337235763]
抽象レベルとセマンティックレベルでスキーマを処理する新しいアーキテクチャであるShadowGNNを提案します。
チャレンジングなText-to-Spiderベンチマークでは、経験的な結果がShadowGNNが最先端のモデルを上回ることを示しています。
論文 参考訳(メタデータ) (2021-04-10T05:48:28Z) - IGSQL: Database Schema Interaction Graph Based Neural Model for
Context-Dependent Text-to-SQL Generation [61.09660709356527]
本稿では,データベーススキーマインタラクショングラフエンコーダを提案し,データベーススキーマ項目の履歴情報を利用する。
ベンチマークSParCおよびCoデータセットを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-11T12:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。