論文の概要: RAG for Geoscience: What We Expect, Gaps and Opportunities
- arxiv url: http://arxiv.org/abs/2508.11246v1
- Date: Fri, 15 Aug 2025 06:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.761046
- Title: RAG for Geoscience: What We Expect, Gaps and Opportunities
- Title(参考訳): RAG for Geoscience: 期待するもの, ギャップ, 機会
- Authors: Runlong Yu, Shiyuan Luo, Rahul Ghosh, Lingyao Li, Yiqun Xie, Xiaowei Jia,
- Abstract要約: Retrieval-Augmented Generation (RAG)は、検索と生成を組み合わせることで言語モデルを強化する。
次世代のパラダイムであるGeo-RAGは、RAGをモジュラー検索の$rightarrow$ reason $rightarrow$ generate $rightarrow$ verify loopとして再定義する。
Geo-RAGは、(i)マルチモーダル地球データの検索、(ii)物理および領域制約下での推論、(iii)科学グレードのアーティファクトの生成、(iv)数値モデル、地上測定、エキスパートアセスメントに対する生成仮説の検証の4つのコア機能をサポートしている。
- 参考スコア(独自算出の注目度): 15.069356714106808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances language models by combining retrieval with generation. However, its current workflow remains largely text-centric, limiting its applicability in geoscience. Many geoscientific tasks are inherently evidence-hungry. Typical examples involve imputing missing observations using analog scenes, retrieving equations and parameters to calibrate models, geolocating field photos based on visual cues, or surfacing historical case studies to support policy analyses. A simple ``retrieve-then-generate'' pipeline is insufficient for these needs. We envision Geo-RAG, a next-generation paradigm that reimagines RAG as a modular retrieve $\rightarrow$ reason $\rightarrow$ generate $\rightarrow$ verify loop. Geo-RAG supports four core capabilities: (i) retrieval of multi-modal Earth data; (ii) reasoning under physical and domain constraints; (iii) generation of science-grade artifacts; and (iv) verification of generated hypotheses against numerical models, ground measurements, and expert assessments. This shift opens new opportunities for more trustworthy and transparent geoscience workflows.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、検索と生成を組み合わせることで言語モデルを強化する。
しかし、現在のワークフローはテキスト中心であり、地学に応用できる範囲は限られている。
多くの地質学的タスクは本質的にエビデンス・ハングリーである。
典型的な例としては、アナログシーンを用いた観察の欠如、モデルのキャリブレーションのための方程式とパラメータの検索、視覚的手がかりに基づくフィールド写真の位置決定、政策分析を支援するための歴史的ケーススタディの提示などがある。
単純な‘retrieve-then-generate’パイプラインは、これらのニーズに対して不十分である。
次世代のパラダイムであるGeo-RAGは、RAGをモジュラー検索の$\rightarrow$ reason $\rightarrow$ generate $\rightarrow$ verify loopとして再定義する。
Geo-RAGは4つのコア機能をサポートしている。
一 マルチモーダル地球データの検索
二 身体的及び領域的制約による推論
三 理工芸品の発生、及び
(4) 数値モデル, 地盤測定, 専門家評価に対する生成仮説の検証。
このシフトは、より信頼性が高く透明な地球科学ワークフローのための新たな機会を開く。
関連論文リスト
- GRE Suite: Geo-localization Inference via Fine-Tuned Vision-Language Models and Enhanced Reasoning Chains [11.704082783192467]
Geo Reason Enhancement (GRE) Suiteは、解釈可能な位置推論のための構造化推論チェーンを備えたビジュアル言語モデルを拡張する新しいフレームワークである。
まず、GRE30Kという、きめ細かい視覚的・文脈的分析を容易にするために設計された高品質なジオローカライゼーション推論データセットを紹介する。
次に,シーン属性,局所的詳細,意味的特徴を段階的に推測する多段階推論手法を用いて,GREモデルを提案する。
論文 参考訳(メタデータ) (2025-05-24T13:48:57Z) - OmniGeo: Towards a Multimodal Large Language Models for Geospatial Artificial Intelligence [51.0456395687016]
マルチモーダル大言語モデル(LLM)が人工知能の新しいフロンティアをオープンした。
地理空間応用に適したMLLM(OmniGeo)を提案する。
自然言語理解の長所と空間的推論の長所を組み合わせることで,GeoAIシステムの指示追従能力と精度を高めることができる。
論文 参考訳(メタデータ) (2025-03-20T16:45:48Z) - Geolocation with Real Human Gameplay Data: A Large-Scale Dataset and Human-Like Reasoning Framework [59.42946541163632]
3つの重要なコンポーネントを持つ包括的位置決めフレームワークを導入する。
大規模データセットGeoComp、新しい推論手法GeoCoT、評価指標GeoEval。
また,GeoCoTは解釈可能性を高めつつ,位置情報の精度を最大25%向上させることを示した。
論文 参考訳(メタデータ) (2025-02-19T14:21:25Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、さまざまな視覚条件、オブジェクトタイプ、スケールにまたがっています。
地理空間固有の課題における性能を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - Graph Retrieval-Augmented Generation: A Survey [28.979898837538958]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の課題に再トレーニングを必要とせずに対処することに成功した。
本稿では,GraphRAGの方法論について概観する。
Graph-Based Indexing、Graph-Guided Retrieval、Graph-Enhanced Generationを含むGraphRAGワークフローを形式化する。
論文 参考訳(メタデータ) (2024-08-15T12:20:24Z) - GeoDTR+: Toward generic cross-view geolocalization via geometric disentanglement [20.346145927174373]
Cross-View Geo-Localization (CVGL) は、データベース内のジオタグ付き空中画像とマッチングすることで、地上画像の位置を推定する。
既存の手法は、トレーニングデータとテストデータが完全に異なる領域から取得されるクロスエリア評価において、依然としてパフォーマンスの低下に悩まされている。
視覚的特徴の幾何学的レイアウトを抽出する能力の欠如と,低レベルの細部への過度な適合が原因と考えられる。
本研究では,視覚的特徴間の相関をモデル化する拡張GLEモジュールを用いたGeoDTR+を提案する。
論文 参考訳(メタデータ) (2023-08-18T15:32:01Z) - GeoQA: A Geometric Question Answering Benchmark Towards Multimodal
Numerical Reasoning [172.36214872466707]
我々は、テキスト記述、視覚図、定理知識の包括的理解を必要とする幾何学的問題を解くことに注力する。
そこで本研究では,5,010の幾何学的問題を含む幾何学的質問応答データセットGeoQAを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:34:17Z) - Learning Structures in Earth Observation Data with Gaussian Processes [67.27044745471207]
本稿では,この分野の主要な理論gp開発について概説する。
信号特性と雑音特性を尊重し、特徴ランキングを自動的に提供し、関連する不確かさ区間を適用可能にする新しいアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2020-12-22T10:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。