論文の概要: Community search signatures as foundation features for human-centered geospatial modeling
- arxiv url: http://arxiv.org/abs/2410.22721v1
- Date: Wed, 30 Oct 2024 06:09:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:27:05.402636
- Title: Community search signatures as foundation features for human-centered geospatial modeling
- Title(参考訳): 人間中心地理空間モデリングの基礎的特徴としてのコミュニティ検索シグネチャ
- Authors: Mimi Sun, Chaitanya Kamath, Mohit Agarwal, Arbaaz Muslim, Hector Yee, David Schottlander, Shailesh Bavadekar, Niv Efron, Shravya Shetty, Gautam Prasad,
- Abstract要約: 本稿では,検索対象の集合的および匿名化された表現を生成するための新しい手法を提案する。
複数の領域にまたがる空間データセットを用いてこれらの特徴をベンチマークする。
これらの特徴を時間的厳密なアライメントを伴わずに空間的予測に利用できることを示す。
- 参考スコア(独自算出の注目度): 1.198203442779543
- License:
- Abstract: Aggregated relative search frequencies offer a unique composite signal reflecting people's habits, concerns, interests, intents, and general information needs, which are not found in other readily available datasets. Temporal search trends have been successfully used in time series modeling across a variety of domains such as infectious diseases, unemployment rates, and retail sales. However, most existing applications require curating specialized datasets of individual keywords, queries, or query clusters, and the search data need to be temporally aligned with the outcome variable of interest. We propose a novel approach for generating an aggregated and anonymized representation of search interest as foundation features at the community level for geospatial modeling. We benchmark these features using spatial datasets across multiple domains. In zip codes with a population greater than 3000 that cover over 95% of the contiguous US population, our models for predicting missing values in a 20% set of holdout counties achieve an average $R^2$ score of 0.74 across 21 health variables, and 0.80 across 6 demographic and environmental variables. Our results demonstrate that these search features can be used for spatial predictions without strict temporal alignment, and that the resulting models outperform spatial interpolation and state of the art methods using satellite imagery features.
- Abstract(参考訳): 集約された相対探索周波数は、人々の習慣、関心、関心、意図、および一般的な情報要求を反映するユニークな合成信号を提供する。
時系列検索のトレンドは、感染症、失業率、小売販売など、さまざまな分野の時系列モデリングでうまく利用されてきた。
しかし、既存のほとんどのアプリケーションは、個々のキーワード、クエリ、クエリクラスタの特別なデータセットをキュレートする必要がある。
本研究では,地理空間モデリングのコミュニティレベルで,検索対象の集合的,匿名化された表現を基礎的特徴として生成する手法を提案する。
複数の領域にまたがる空間データセットを用いてこれらの特徴をベンチマークする。
アメリカの人口の95%以上をカバーしている3000人以上のジップコードでは、20%のホールトアウト郡で欠落した値を予測するためのモデルは、21の健康変数で平均0.74ドル、人口および環境変数で0.80ドルに達している。
以上の結果から,これらの探索機能は厳密な時間的アライメントを伴わずに空間予測に利用でき,衛星画像特徴を用いた空間補間法や最先端手法よりも優れた結果が得られた。
関連論文リスト
- An Interpretable Implicit-Based Approach for Modeling Local Spatial Effects: A Case Study of Global Gross Primary Productivity [9.352810748734157]
地球科学では、観測されていない要因は非定常分布を示し、特徴と対象の関係が空間的不均一性を示す。
地理的機械学習タスクでは、従来の統計学習手法は空間的不均一性を捉えるのに苦労することが多い。
我々は、深層ニューラルネットワークを用いた空間差と並行して、異なる場所で共通する特徴を同時にモデル化する、新しい視点を提案する。
論文 参考訳(メタデータ) (2025-02-10T05:44:54Z) - Encoded Spatial Attribute in Multi-Tier Federated Learning [1.5999407512883512]
本研究では,エンコード型空間多階層フェデレーション学習手法を提案する。
クライアント層では、目的とする結果をより正確に予測するために、空間情報を符号化する。
精度などの評価指標を用いて,空間的粒度の複雑さに関する知見を明らかにする。
論文 参考訳(メタデータ) (2025-01-10T12:56:19Z) - GEOBench-VLM: Benchmarking Vision-Language Models for Geospatial Tasks [84.86699025256705]
本稿では,地理空間的タスクの視覚言語モデル(VLM)を評価するためのベンチマークであるGEOBench-VLMを提案する。
私たちのベンチマークでは、手動で検証された命令が1万以上あり、視覚条件、オブジェクトタイプ、スケールのさまざまなバリエーションをカバーしています。
地理空間内での精度を評価するために,いくつかの最先端のVLMを評価した。
論文 参考訳(メタデータ) (2024-11-28T18:59:56Z) - General Geospatial Inference with a Population Dynamics Foundation Model [15.620351974173385]
Population Dynamics Foundation Model (PDFM)は、多様なデータモダリティ間の関係を捉えることを目的としている。
まず、アメリカ合衆国全土の郵便番号と郡のための地理インデックス付きデータセットを構築した。
次に、グラフニューラルネットワークを用いて、このデータと位置間の複雑な関係をモデル化する。
我々は、PDFMと最先端の予測基盤モデルであるTimesFMを組み合わせることで、失業と貧困を予測する。
論文 参考訳(メタデータ) (2024-11-11T18:32:44Z) - Large Models for Time Series and Spatio-Temporal Data: A Survey and
Outlook [95.32949323258251]
時系列データ、特に時系列データと時間時間データは、現実世界のアプリケーションで広く使われている。
大規模言語やその他の基礎モデルの最近の進歩は、時系列データマイニングや時間データマイニングでの使用の増加に拍車を掛けている。
論文 参考訳(メタデータ) (2023-10-16T09:06:00Z) - SARN: Structurally-Aware Recurrent Network for Spatio-Temporal Disaggregation [8.636014676778682]
オープンデータは、通常プライバシーポリシーに従うために、しばしば空間的に集約される。しかし、粗い、異質な集約は、下流のAI/MLシステムに対する一貫性のある学習と統合を複雑にする。
本稿では,空間的注意層をGRU(Gated Recurrent Unit)モデルに統合したSARN(Structurely-Aware Recurrent Network)を提案する。
履歴学習データに制限のあるシナリオでは、ある都市変数に事前学習したモデルを、数百のサンプルのみを用いて、他の都市変数に対して微調整できることを示す。
論文 参考訳(メタデータ) (2023-06-09T21:01:29Z) - Spatial Implicit Neural Representations for Global-Scale Species Mapping [72.92028508757281]
ある種が観察された場所の集合を考えると、その種がどこにいても存在しないかを予測するためのモデルを構築することが目的である。
従来の手法は、新たな大規模クラウドソースデータセットを活用するのに苦労している。
本研究では,47k種の地理的範囲を同時に推定するために,空間入射ニューラル表現(SINR)を用いる。
論文 参考訳(メタデータ) (2023-06-05T03:36:01Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - RF-Next: Efficient Receptive Field Search for Convolutional Neural
Networks [86.6139619721343]
そこで本研究では,グローバル・ローカル・サーチ手法を用いて,より優れた受容場の組み合わせを求める。
我々の検索手法は, 粗い組み合わせを見つけるためにグローバル検索と, 洗練された受容場の組み合わせを得るために局所探索の両方を利用する。
我々のRF-Nextモデルは、様々なモデルに受容場探索を接続し、多くのタスクのパフォーマンスを高める。
論文 参考訳(メタデータ) (2022-06-14T06:56:26Z) - Domain-Adversarial Training of Self-Attention Based Networks for Land
Cover Classification using Multi-temporal Sentinel-2 Satellite Imagery [0.0]
ほとんどの実用的なアプリケーションはラベル付きデータには依存せず、この分野では調査は時間のかかるソリューションである。
本稿では,異なる地理的領域間のドメイン不一致を橋渡しする深層ニューラルネットワークの対比訓練について検討する。
論文 参考訳(メタデータ) (2021-04-01T15:45:17Z) - Connecting the Dots: Multivariate Time Series Forecasting with Graph
Neural Networks [91.65637773358347]
多変量時系列データに特化して設計された汎用グラフニューラルネットワークフレームワークを提案する。
グラフ学習モジュールを用いて,変数間の一方向関係を自動的に抽出する。
提案手法は,4つのベンチマークデータセットのうち3つにおいて,最先端のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2020-05-24T04:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。