論文の概要: Omni Geometry Representation Learning vs Large Language Models for Geospatial Entity Resolution
- arxiv url: http://arxiv.org/abs/2508.06584v1
- Date: Fri, 08 Aug 2025 03:37:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.454921
- Title: Omni Geometry Representation Learning vs Large Language Models for Geospatial Entity Resolution
- Title(参考訳): Omni Geometry Representation Learning vs Large Language Models for Geospatial Entity Resolution
- Authors: Kalana Wijegunarathna, Kristin Stock, Christopher B. Jones,
- Abstract要約: オームニ幾何学エンコーダを備えた地理空間ERモデル。
モデルは、既存のポイントオンリーのデータセットと、新しい多様な地理空間的ERデータセットで厳格にテストされている。
- 参考スコア(独自算出の注目度): 0.5120567378386615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development, integration, and maintenance of geospatial databases rely heavily on efficient and accurate matching procedures of Geospatial Entity Resolution (ER). While resolution of points-of-interest (POIs) has been widely addressed, resolution of entities with diverse geometries has been largely overlooked. This is partly due to the lack of a uniform technique for embedding heterogeneous geometries seamlessly into a neural network framework. Existing neural approaches simplify complex geometries to a single point, resulting in significant loss of spatial information. To address this limitation, we propose Omni, a geospatial ER model featuring an omni-geometry encoder. This encoder is capable of embedding point, line, polyline, polygon, and multi-polygon geometries, enabling the model to capture the complex geospatial intricacies of the places being compared. Furthermore, Omni leverages transformer-based pre-trained language models over individual textual attributes of place records in an Attribute Affinity mechanism. The model is rigorously tested on existing point-only datasets and a new diverse-geometry geospatial ER dataset. Omni produces up to 12% (F1) improvement over existing methods. Furthermore, we test the potential of Large Language Models (LLMs) to conduct geospatial ER, experimenting with prompting strategies and learning scenarios, comparing the results of pre-trained language model-based methods with LLMs. Results indicate that LLMs show competitive results.
- Abstract(参考訳): 地理空間データベースの開発、統合、保守は、地理空間エンティティ解決(ER)の効率的かつ正確なマッチング手順に大きく依存している。
関心の点(POI)の分解は広く研究されているが、多様な幾何学を持つ実体の分解は概ね見過ごされている。
これは、不均一なジオメトリをニューラルネットワークフレームワークにシームレスに埋め込む統一的なテクニックが欠如していることによる。
既存のニューラルアプローチは複雑な測地を単一の点に単純化し、空間情報が著しく失われる。
この制限に対処するために、オムニ(Omni)という、オムニ幾何学エンコーダを備えた地理空間ERモデルを提案する。
このエンコーダは、点、線、ポリライン、ポリゴン、多角形ジオメトリーを埋め込むことができ、モデルが比較される場所の複雑な地理空間の複雑さを捉えることができる。
さらに、Omniは、Attribute Affinityメカニズムにおけるプレースレコードの個々のテキスト属性よりも、トランスフォーマーベースの事前訓練言語モデルを活用する。
このモデルは、既存のポイントオンリーのデータセットと、新しい多様な地理空間ERデータセットで厳格にテストされている。
Omniは既存の方法よりも最大12%(F1)改善されている。
さらに,Large Language Models (LLMs) による地理空間的ERの実現の可能性を検証するとともに,事前学習した言語モデルに基づく手法とLCMsとの比較を行った。
その結果, LLMは競争力のある結果を示した。
関連論文リスト
- Geometric Operator Learning with Optimal Transport [77.16909146519227]
複素測地上での偏微分方程式(PDE)に対する演算子学習に最適輸送(OT)を統合することを提案する。
表面に焦点を当てた3次元シミュレーションでは、OTベースのニューラルオペレーターが表面形状を2次元パラメータ化潜在空間に埋め込む。
ShapeNet-Car と DrivAerNet-Car を用いたレイノルズ平均化 Navier-Stokes 方程式 (RANS) を用いた実験により,提案手法は精度の向上と計算コストの削減を図った。
論文 参考訳(メタデータ) (2025-07-26T21:28:25Z) - Enhancing the Geometric Problem-Solving Ability of Multimodal LLMs via Symbolic-Neural Integration [57.95306827012784]
幾何学図のステップワイズ推論パスを自動的に生成するパイプラインであるGeoGenを提案する。
正確なシンボリック推論を活用することで、textbfGeoGenは大規模で高品質な質問応答ペアを生成する。
GeoGen が生成した合成データを用いて,Large Language Model (LLM) である textbfGeoLogic を訓練する。
論文 参考訳(メタデータ) (2025-04-17T09:13:46Z) - OmniGeo: Towards a Multimodal Large Language Models for Geospatial Artificial Intelligence [51.0456395687016]
マルチモーダル大言語モデル(LLM)が人工知能の新しいフロンティアをオープンした。
地理空間応用に適したMLLM(OmniGeo)を提案する。
自然言語理解の長所と空間的推論の長所を組み合わせることで,GeoAIシステムの指示追従能力と精度を高めることができる。
論文 参考訳(メタデータ) (2025-03-20T16:45:48Z) - Geometry-Aware Generative Autoencoders for Warped Riemannian Metric Learning and Generative Modeling on Data Manifolds [18.156807299614503]
本稿では,多様体学習と生成モデルを組み合わせた新しいフレームワークであるGeometry-Aware Generative Autoencoder (GAGA)を紹介する。
GAGAは、シミュレーションおよび実世界のデータセットにおける競合性能を示し、単一セルの集団レベルの軌道推定における最先端の手法よりも30%改善されている。
論文 参考訳(メタデータ) (2024-10-16T17:53:26Z) - G-LLaVA: Solving Geometric Problem with Multi-Modal Large Language Model [124.68242155098189]
大規模言語モデル(LLM)は、人間レベルの推論と生成能力に顕著な習熟性を示している。
G-LLaVAは幾何学的問題の解法において例外的な性能を示し、7Bパラメータしか持たないMathVistaベンチマークにおいて GPT-4-V を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-18T17:36:20Z) - Evaluating the Effectiveness of Large Language Models in Representing
Textual Descriptions of Geometry and Spatial Relations [2.8935588665357086]
本研究では,大規模言語モデル(LLM)の空間的関係の表現能力を評価することに焦点を当てた。
我々は GPT-2 や BERT などの LLM を用いて、よく知られたジオメトリのテキスト (WKT) フォーマットを符号化し、それらの埋め込みを分類器や回帰器に入力する。
実験では、LLMが生成した埋め込みは幾何型を保存し、いくつかの空間的関係(精度は73%まで)を捉えることができるが、数値を推定し、空間的関連オブジェクトを検索する際の課題が残っている。
論文 参考訳(メタデータ) (2023-07-05T03:50:08Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。