論文の概要: Chatmap : Large Language Model Interaction with Cartographic Data
- arxiv url: http://arxiv.org/abs/2310.01429v1
- Date: Thu, 28 Sep 2023 15:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-08 10:57:52.810298
- Title: Chatmap : Large Language Model Interaction with Cartographic Data
- Title(参考訳): chatmap : 地図データと大規模言語モデルとのインタラクション
- Authors: Eren Unlu
- Abstract要約: OpenStreetMap(OSM)は、都市部と農村部の詳細な地理データを提供する、最も野心的なオープンソースグローバルイニシアチブである。
本研究では,比較的小規模(1Bパラメータ)の大規模言語モデル(LLM)を,より有能な教師モデルによってキュレートされた比較的小さな人工データセットを用いて微調整するプロセスの概念と詳細を実証する。
この研究は、このような生成的人工知能(AI)適応のための最初のガイドラインを提供し、この文脈で有用な新興能力の早期の兆候を示すことを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The swift advancement and widespread availability of foundational Large
Language Models (LLMs), complemented by robust fine-tuning methodologies, have
catalyzed their adaptation for innovative and industrious applications.
Enabling LLMs to recognize and interpret geospatial data, while offering a
linguistic access to vast cartographic datasets, is of significant importance.
OpenStreetMap (OSM) is the most ambitious open-source global initiative
offering detailed urban and rural geographic data, curated by a community of
over 10 million contributors, which constitutes a great potential for LLM
applications. In this study, we demonstrate the proof of concept and details of
the process of fine-tuning a relatively small scale (1B parameters) LLM with a
relatively small artificial dataset curated by a more capable teacher model, in
order to provide a linguistic interface to the OSM data of an arbitrary urban
region. Through this interface, users can inquire about a location's
attributes, covering a wide spectrum of concepts, such as its touristic appeal
or the potential profitability of various businesses in that vicinity. The
study aims to provide an initial guideline for such generative artificial
intelligence (AI) adaptations and demonstrate early signs of useful emerging
abilities in this context even in minimal computational settings. The
embeddings of artificially curated prompts including OSM data are also
investigated in detail, which might be instrumental for potential geospatially
aware urban Retrieval Augmented Generation (RAG) applications.
- Abstract(参考訳): 堅牢な微調整手法を補完する基礎言語モデル(LLM)の急速な進歩と普及により、革新的で工業的な応用への適応が促進された。
LLMを用いて地理空間データの認識と解釈を行う一方で、広大な地図データセットへの言語的アクセスも重要である。
OpenStreetMap(OSM)は,1,000万人以上のコントリビュータによるコミュニティによる詳細な都市と農村の地理データを提供する,最も野心的なオープンソースグローバルイニシアティブである。
本研究では,より有能な教師モデルによって計算された比較的小さな人工データセットを用いて,比較的小さなスケール (1B パラメータ) の LLM を微調整し,任意の都市域の OSM データに対する言語的インタフェースを提供するという概念とプロセスの詳細を実証する。
このインターフェースを通じて、ユーザーは場所の属性を問うことができ、観光客の魅力や近隣の様々なビジネスの利益の可能性など、幅広い概念をカバーすることができる。
この研究は、このような生成人工知能(AI)適応のための最初のガイドラインを提供することを目的としており、最小限の計算設定でも、この文脈で有用な新興能力の早期の兆候を示す。
OSMデータを含む人工的にキュレートされたプロンプトの埋め込みも詳細に調べられ、これは、地理的に認識された都市レトリーバル拡張世代(RAG)の応用に役立つ可能性がある。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - Geolocation Representation from Large Language Models are Generic Enhancers for Spatio-Temporal Learning [10.438284728725842]
普遍表現モデルは、自然言語処理やコンピュータビジョンで広く使われているよりも一般的ではない。
この相違は主に入力された既存の表現モデルに関連する高コストから生じる。
本研究では,大規模言語モデルを用いて位置情報表現を導出する学習自由手法を開発した。
論文 参考訳(メタデータ) (2024-08-22T04:05:02Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Large Language Models for Data Annotation: A Survey [49.8318827245266]
LLM(Advanced Large Language Models)の出現は、データアノテーションの複雑なプロセスを自動化する前例のない機会を提供する。
この調査には、LLMが注釈付けできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションにLLMを使用する際の主な課題と制限に関する詳細な議論が含まれている。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - GeoLLM: Extracting Geospatial Knowledge from Large Language Models [49.20315582673223]
大規模言語モデルから地理空間的知識を効果的に抽出する新しい手法であるGeoLLMを提案する。
我々は、人口密度や経済生活の計測など、国際社会への関心の中心となる複数の課題にまたがるアプローチの有用性を実証する。
実験の結果, LLMは試料効率が高く, 地理空間情報に富み, 世界中のロバストであることがわかった。
論文 参考訳(メタデータ) (2023-10-10T00:03:23Z) - Are Large Language Models Geospatially Knowledgeable? [21.401931052512595]
本稿では,Large Language Models (LLM) で符号化された地理空間的知識,認識,推論能力の程度について検討する。
自己回帰言語モデルに焦点をあて, (i) 地理座標系におけるLLMの探索と地理空間知識の評価, (ii) 地理空間的および非地理空間的前置法を用いて地理空間的意識を測定する, (iii) 多次元スケーリング(MDS) 実験を用いて, モデルの地理空間的推論能力を評価する, 実験手法を考案した。
論文 参考訳(メタデータ) (2023-10-09T17:20:11Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - City Foundation Models for Learning General Purpose Representations from OpenStreetMap [16.09047066527081]
本稿では,都市のような選択された地理的関心領域における基礎モデルをトレーニングするためのフレームワークであるCityFMを紹介する。
CityFMはOpenStreetMapからのオープンデータにのみ依存し、異なるタイプのエンティティ、空間、視覚、およびテキスト情報のマルチモーダル表現を生成する。
すべての実験において、CityFMはベースラインに匹敵する、あるいは同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-01T05:55:30Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Deep residential representations: Using unsupervised learning to unlock
elevation data for geo-demographic prediction [0.0]
LiDAR技術は、都市景観と農村景観の詳細な3次元標高マップを提供するために利用することができる。
現在まで、空中LiDAR画像は、主に環境と考古学の領域に限られている。
我々は、このデータの適合性は、独自のだけでなく、人口統計学的特徴と組み合わせたデータの源でもあると考え、埋め込みの現実的なユースケースを提供する。
論文 参考訳(メタデータ) (2021-12-02T17:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。