論文の概要: Adaptations of AI models for querying the LandMatrix database in natural language
- arxiv url: http://arxiv.org/abs/2412.12961v1
- Date: Tue, 17 Dec 2024 14:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:24.756330
- Title: Adaptations of AI models for querying the LandMatrix database in natural language
- Title(参考訳): 自然言語によるLandMatrixデータベース検索のためのAIモデルの適応
- Authors: Fatiha Ait Kbir, Jérémy Bourgoin, Rémy Decoupes, Marie Gradeler, Roberto Interdonato,
- Abstract要約: 土地マトリックスイニシアチブは、低所得国・中所得国における農業、抽出、エネルギーといった分野の議論や行動を伝えるため、大規模土地取得に関する信頼性の高いデータの提供を目的としている。
これらのデータは学術的に認識されているが、アクセスとエクスプロイトの複雑さが主な原因であり、技術的な専門知識とデータベーススキーマの理解が必要とされるため、公共政策では未利用のままである。
本研究の目的は、異なるデータベースシステムからのデータへのアクセスを簡単にすることであり、本論文で提案する手法は、ランドマトリックスのデータを用いて評価される。
- 参考スコア(独自算出の注目度): 0.5242869847419834
- License:
- Abstract: The Land Matrix initiative (https://landmatrix.org) and its global observatory aim to provide reliable data on large-scale land acquisitions to inform debates and actions in sectors such as agriculture, extraction, or energy in low- and middle-income countries. Although these data are recognized in the academic world, they remain underutilized in public policy, mainly due to the complexity of access and exploitation, which requires technical expertise and a good understanding of the database schema. The objective of this work is to simplify access to data from different database systems. The methods proposed in this article are evaluated using data from the Land Matrix. This work presents various comparisons of Large Language Models (LLMs) as well as combinations of LLM adaptations (Prompt Engineering, RAG, Agents) to query different database systems (GraphQL and REST queries). The experiments are reproducible, and a demonstration is available online: https://github.com/tetis-nlp/landmatrix-graphql-python.
- Abstract(参考訳): ランド・マトリックス・イニシアチブ(https://landmatrix.org)とそのグローバル・オブザーバトリーは、大規模土地取得に関する信頼性の高いデータを提供し、低所得国や中所得国における農業、抽出、エネルギーといった分野における議論や行動を伝えることを目的としている。
これらのデータは学術的に認識されているが、アクセスとエクスプロイトの複雑さが主な原因であり、技術的な専門知識とデータベーススキーマの理解が必要とされるため、公共政策では未利用のままである。
この作業の目的は、異なるデータベースシステムからのデータへのアクセスを簡単にすることである。
本稿では,ランドマトリックスのデータを用いて,提案手法の評価を行った。
この研究は、LLM(Large Language Models)とLLM適応(Prompt Engineering, RAG, Agents)を組み合わせることで、さまざまなデータベースシステム(GraphQLとRESTクエリ)をクエリする。
実験は再現可能で、デモはオンラインで公開されている。
関連論文リスト
- Explainable Multi-Modal Data Exploration in Natural Language via LLM Agent [6.147666891384964]
XMODEは自然言語で説明可能なマルチモーダルデータ探索を可能にするシステムである。
XMODEは、マルチモーダル情報システムの探索を可能にする現実世界のユースケースにインスパイアされている。
論文 参考訳(メタデータ) (2024-12-24T13:42:44Z) - Towards Evaluating Large Language Models for Graph Query Generation [49.49881799107061]
大言語モデル(LLM)は、生成人工知能(GenAI)の景観に革命をもたらしている
本稿では,オープンアクセス LLM を用いてグラフデータベースと対話する強力な言語としてクエリを生成することの課題について比較検討する。
クエリ生成精度を実証的に分析したところ、Claude Sonnet 3.5は特定のドメインでそれよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-13T09:11:56Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - Text2SQL is Not Enough: Unifying AI and Databases with TAG [47.45480855418987]
Table-Augmented Generation (TAG) は、データベース上の自然言語の質問に答えるパラダイムである。
我々は、TAG問題を研究するためのベンチマークを開発し、標準手法がクエリの20%以上を正しく答えることを発見した。
論文 参考訳(メタデータ) (2024-08-27T00:50:14Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - Enhancing Knowledge Retrieval with In-Context Learning and Semantic Search through Generative AI [3.9773527114058855]
本稿では,大規模言語モデルの生成能力とベクトルデータベースの高速かつ正確な検索能力を組み合わせた新しい手法を提案する。
開発したGTR(Generative Text Retrieval)は,非構造化データと構造化データの両方に適用可能である。
改良されたモデルであるGenerative Tabular Text Retrieval (GTR-T) は、大規模データベースクエリの効率を実証した。
論文 参考訳(メタデータ) (2024-06-13T23:08:06Z) - DataAgent: Evaluating Large Language Models' Ability to Answer Zero-Shot, Natural Language Queries [0.0]
OpenAIのGPT-3.5をLanguage Data Scientist(LDS)として評価する
このモデルは、さまざまなベンチマークデータセットでテストされ、そのパフォーマンスを複数の標準で評価した。
論文 参考訳(メタデータ) (2024-03-29T22:59:34Z) - Relational Deep Learning: Graph Representation Learning on Relational
Databases [69.7008152388055]
複数のテーブルにまたがって配置されたデータを学ぶために、エンドツーエンドの表現アプローチを導入する。
メッセージパッシンググラフニューラルネットワークは、自動的にグラフを学習して、すべてのデータ入力を活用する表現を抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:51:41Z) - MLLM-DataEngine: An Iterative Refinement Approach for MLLM [62.30753425449056]
本稿では,データ生成,モデルトレーニング,評価を橋渡しする新しいクローズドループシステムを提案する。
各ループ内で、MLLM-DataEngineはまず評価結果に基づいてモデルの弱点を分析する。
ターゲットとして,異なる種類のデータの比率を調整する適応型バッドケースサンプリングモジュールを提案する。
品質については、GPT-4を用いて、各データタイプで高品質なデータを生成する。
論文 参考訳(メタデータ) (2023-08-25T01:41:04Z) - Querying Large Language Models with SQL [16.383179496709737]
多くのユースケースでは、情報はテキストに格納されるが、構造化データでは利用できない。
事前訓練されたLarge Language Models (LLMs) の台頭に伴い、大量のテキストコーパスから抽出された情報を保存および使用するための効果的なソリューションが現在存在する。
本稿では,従来のデータベースアーキテクチャに基づくプロトタイプであるGaloisについて紹介する。
論文 参考訳(メタデータ) (2023-04-02T06:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。