論文の概要: GEE-OPs: An Operator Knowledge Base for Geospatial Code Generation on the Google Earth Engine Platform Powered by Large Language Models
- arxiv url: http://arxiv.org/abs/2412.05587v2
- Date: Wed, 11 Dec 2024 13:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:00:15.486139
- Title: GEE-OPs: An Operator Knowledge Base for Geospatial Code Generation on the Google Earth Engine Platform Powered by Large Language Models
- Title(参考訳): GEE-OPs: 大規模言語モデルによるGoogle Earthエンジンプラットフォーム上での地理空間コード生成のための演算子知識ベース
- Authors: Shuyang Hou, Jianyuan Liang, Anqi Zhao, Huayi Wu,
- Abstract要約: 本稿では,Google Earth Engine (GEE) JavaScript APIに適した演算子知識ベースを構築するためのフレームワークを提案する。
本フレームワークは、演算子構文知識テーブル、演算子関係周波数テーブル、演算子頻繁パターン知識テーブル、演算子関係連鎖知識テーブルからなる。
本研究では,演算子の知識抽出において,90%以上の精度,リコール,F1スコアが達成されていることを示す。
- 参考スコア(独自算出の注目度): 0.562479170374811
- License:
- Abstract: As the scale and complexity of spatiotemporal data continue to grow rapidly, the use of geospatial modeling on the Google Earth Engine (GEE) platform presents dual challenges: improving the coding efficiency of domain experts and enhancing the coding capabilities of interdisciplinary users. To address these challenges and improve the performance of large language models (LLMs) in geospatial code generation tasks, we propose a framework for building a geospatial operator knowledge base tailored to the GEE JavaScript API. This framework consists of an operator syntax knowledge table, an operator relationship frequency table, an operator frequent pattern knowledge table, and an operator relationship chain knowledge table. By leveraging Abstract Syntax Tree (AST) techniques and frequent itemset mining, we systematically extract operator knowledge from 185,236 real GEE scripts and syntax documentation, forming a structured knowledge base. Experimental results demonstrate that the framework achieves over 90% accuracy, recall, and F1 score in operator knowledge extraction. When integrated with the Retrieval-Augmented Generation (RAG) strategy for LLM-based geospatial code generation tasks, the knowledge base improves performance by 20-30%. Ablation studies further quantify the necessity of each knowledge table in the knowledge base construction. This work provides robust support for the advancement and application of geospatial code modeling techniques, offering an innovative approach to constructing domain-specific knowledge bases that enhance the code generation capabilities of LLMs, and fostering the deeper integration of generative AI technologies within the field of geoinformatics.
- Abstract(参考訳): 時空間データのスケールと複雑さが急速に拡大するにつれて、Google Earth Engine(GEE)プラットフォームでの地理空間モデリングの利用は、ドメインエキスパートのコーディング効率の向上と学際的ユーザ間のコーディング能力の向上という2つの課題を提起する。
これらの課題に対処し、地理空間コード生成タスクにおける大規模言語モデル(LLM)の性能を向上させるために、GEE JavaScript APIに適した地理空間演算子知識ベースを構築するためのフレームワークを提案する。
本フレームワークは、演算子構文知識テーブル、演算子関係周波数テーブル、演算子頻繁パターン知識テーブル、演算子関係連鎖知識テーブルからなる。
抽象構文木(AST)技術と頻繁な項目マイニングを利用して,実GEEスクリプトおよび構文文書185,236から演算子知識を体系的に抽出し,構造化知識ベースを形成する。
実験結果から,演算子知識抽出における90%以上の精度,リコール,F1スコアが得られた。
LLMをベースとした地理空間コード生成タスクにおいて,Retrieval-Augmented Generation(RAG)戦略と統合することにより,知識ベースの性能を20~30%向上させる。
アブレーション研究は、知識基盤構築における知識表の必要性をさらに定量化する。
この研究は地理空間的コードモデリング技術の進歩と応用を強力に支援し、LLMのコード生成能力を向上するドメイン固有の知識ベースを構築する革新的なアプローチを提供し、ジオインフォマティクス分野における生成AI技術のより深い統合を促進する。
関連論文リスト
- Chain-of-Programming (CoP) : Empowering Large Language Models for Geospatial Code Generation [2.6026969939746705]
本稿では,コード生成プロセスを5段階に分解するプログラミングフレームワークを提案する。
このフレームワークには、共有情報プール、知識ベース検索、ユーザフィードバック機構が含まれている。
生成されたコードの論理的明確性、構文的正確性、実行可能性を大幅に改善する。
論文 参考訳(メタデータ) (2024-11-16T09:20:35Z) - Geo-FuB: A Method for Constructing an Operator-Function Knowledge Base for Geospatial Code Generation Tasks Using Large Language Models [0.5242869847419834]
本研究では,地理空間記述のセマンティクスを活用して,そのような知識基盤を構築するためのフレームワークを提案する。
サンプルの知識ベースであるGeo-FuBは154,075のGoogle Earth Engineスクリプトで構築されており、GitHubで公開されている。
論文 参考訳(メタデータ) (2024-10-28T12:50:27Z) - An LLM Agent for Automatic Geospatial Data Analysis [5.842462214442362]
大規模言語モデル(LLM)は、データサイエンスコード生成タスクで使われている。
複雑なデータ構造と空間的制約を組み込むのが困難であるため,空間空間データ処理への応用は困難である。
ジオアジェント(GeoAgent)は,LLMが地理空間データ処理をより効率的に処理できるように設計された対話型フレームワークである。
論文 参考訳(メタデータ) (2024-10-24T14:47:25Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Swarm Intelligence in Geo-Localization: A Multi-Agent Large Vision-Language Model Collaborative Framework [51.26566634946208]
smileGeoは、新しい視覚的ジオローカライゼーションフレームワークである。
エージェント間のコミュニケーションによって、SmithGeoはこれらのエージェントの固有の知識と、検索された情報を統合する。
その結果,本手法は現在の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T03:31:30Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - EVOR: Evolving Retrieval for Code Generation [17.46870626157077]
検索拡張コード生成のための既存のパイプラインは、単一のソースを持つ静的ナレッジベースを使用している。
我々は,クエリと多様な知識ベースを同期的に進化させる新しいパイプラインEVORを開発した。
論文 参考訳(メタデータ) (2024-02-19T17:37:28Z) - LasUIE: Unifying Information Extraction with Latent Adaptive
Structure-aware Generative Language Model [96.889634747943]
全ての典型的な情報抽出タスク(UIE)を1つの生成言語モデル(GLM)で普遍的にモデル化し、大きな可能性を明らかにした。
UIE のための構文知識のパワーを完全に解放する構造対応 GLM を提案する。
7つのタスクにわたるIEベンチマークが12以上あり、私たちのシステムはベースラインのUIEシステムよりも大幅に改善されていることを示しています。
論文 参考訳(メタデータ) (2023-04-13T04:01:14Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。