論文の概要: Automatic Extraction of Urban Outdoor Perception from Geolocated
Free-Texts
- arxiv url: http://arxiv.org/abs/2010.06444v1
- Date: Tue, 13 Oct 2020 14:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:33:34.683820
- Title: Automatic Extraction of Urban Outdoor Perception from Geolocated
Free-Texts
- Title(参考訳): 地理自由テキストからの都市屋外知覚の自動抽出
- Authors: Frances Santos, Thiago H Silva, Antonio A F Loureiro, Leandro Villas
- Abstract要約: 本稿では,人々の知覚を抽出するための,自動的かつ汎用的なアプローチを提案する。
我々は、シカゴ、ニューヨーク、ロンドンにおける都市屋外の文脈における我々のアプローチを例示する。
本手法は,異なる視点を考慮し,都市部をよりよく理解する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 1.8419317899207144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic extraction of urban perception shared by people on
location-based social networks (LBSNs) is an important multidisciplinary
research goal. One of the reasons is because it facilitates the understanding
of the intrinsic characteristics of urban areas in a scalable way, helping to
leverage new services. However, content shared on LBSNs is diverse,
encompassing several topics, such as politics, sports, culture, religion, and
urban perceptions, making the task of content extraction regarding a particular
topic very challenging. Considering free-text messages shared on LBSNs, we
propose an automatic and generic approach to extract people's perceptions. For
that, our approach explores opinions that are spatial-temporal and semantically
similar. We exemplify our approach in the context of urban outdoor areas in
Chicago, New York City and London. Studying those areas, we found evidence that
LBSN data brings valuable information about urban regions. To analyze and
validate our outcomes, we conducted a temporal analysis to measure the results'
robustness over time. We show that our approach can be helpful to better
understand urban areas considering different perspectives. We also conducted a
comparative analysis based on a public dataset, which contains volunteers'
perceptions regarding urban areas expressed in a controlled experiment. We
observe that both results yield a very similar level of agreement.
- Abstract(参考訳): 位置情報に基づくソーシャルネットワーク(LBSN)上で人々が共有する都市感の自動抽出は、重要な多分野研究目標である。
理由の1つは、都市部の本質的な特徴をスケーラブルな方法で理解し、新しいサービスを活用するのに役立つためである。
しかし、LBSNで共有されるコンテンツは多様であり、政治、スポーツ、文化、宗教、都市認識などいくつかのトピックを包含しているため、特定のトピックに関するコンテンツ抽出のタスクは非常に難しい。
LBSNで共有される自由テキストメッセージを考えると、人々の知覚を抽出するための自動的で汎用的なアプローチを提案する。
そこで本研究では,空間的・時間的・意味的に類似した意見を探る。
我々は、シカゴ、ニューヨーク、ロンドンにおける都市屋外の文脈における我々のアプローチを例示する。
これらの地域を調べたところ,LBSNデータによって都市部について貴重な情報が得られるという証拠が得られた。
結果を分析し検証するために, 経時的ロバスト性を測定するための時間的分析を行った。
このアプローチは,異なる視点から都市部の理解を深める上で有用であることを示す。
また,コントロール実験で表現された都市部に対するボランティアの認識を含む,公共データセットに基づく比較分析を行った。
どちらの結果も、非常に類似したレベルの合意をもたらすことが観察される。
関連論文リスト
- UrBench: A Comprehensive Benchmark for Evaluating Large Multimodal Models in Multi-View Urban Scenarios [60.492736455572015]
複雑な多視点都市シナリオにおけるLMM評価のためのベンチマークであるUrBenchを提案する。
UrBenchには、リージョンレベルとロールレベルの両方で、厳密にキュレートされた11.6Kの質問が含まれている。
21のLMMに対する評価は、現在のLMMが都市環境においていくつかの面で苦戦していることを示している。
論文 参考訳(メタデータ) (2024-08-30T13:13:35Z) - Uncover the nature of overlapping community in cities [4.497897224837208]
本研究は,都市社会に固有の複雑な重なり合う性質を反映した,グラフに基づく物理対応深層学習フレームワークを提案する。
米国ミネソタ州ツインシティーズ都市圏(TCMA)における携帯電話の位置データを分析した結果、都市機能の複雑さの95.7%は、平日におけるコミュニティの重複構造に起因することがわかった。
論文 参考訳(メタデータ) (2024-01-31T22:50:49Z) - Geo-located Aspect Based Sentiment Analysis (ABSA) for Crowdsourced
Evaluation of Urban Environments [0.0]
本研究では,地理的に位置付けられたテキストによる都市評価に含まれる都市の側面を抽出できるABSAモデルを構築し,それに対応する側面感性分類を行う。
本モデルは,Aspect Term extract (ATE) とAspect Sentiment Classification (ASC) の両タスクに対して,都市レビューにおける予測精度を大幅に向上させる。
実証分析では、ボストン全体の肯定的および否定的な都市面が空間的に可視化されている。
論文 参考訳(メタデータ) (2023-12-19T15:37:27Z) - Cross-City Matters: A Multimodal Remote Sensing Benchmark Dataset for
Cross-City Semantic Segmentation using High-Resolution Domain Adaptation
Networks [82.82866901799565]
我々は,都市間セマンティックセマンティックセグメンテーションタスクの研究を目的とした,新しいマルチモーダルリモートセンシングベンチマークデータセット(ハイパースペクトル,マルチスペクトル,SARを含む)を構築した。
単一都市に留まらず,多都市環境からAIモデルの一般化能力を促進するため,高解像度なドメイン適応ネットワークであるHighDANを提案する。
高DANは, 並列高分解能融合方式で, 都市景観の空間的トポロジカルな構造を良好に維持することができる。
論文 参考訳(メタデータ) (2023-09-26T23:55:39Z) - The Urban Toolkit: A Grammar-based Framework for Urban Visual Analytics [5.674216760436341]
都市問題の複雑な性質と利用可能なデータの圧倒的な量は、これらの取り組みを実用的な洞察に翻訳する上で大きな課題を提起している。
興味のある特徴を分析する際、都市の専門家は、異なるテーマ(例えば、日光アクセス、人口統計)と物理的(例えば、建物、ストリートネットワーク)のデータ層を変換し、統合し、視覚化しなければならない。
これにより、プログラマにとって視覚的なデータ探索とシステム実装が難しくなり、コンピュータ科学以外の都市の専門家にとって高い入り口障壁となる。
論文 参考訳(メタデータ) (2023-08-15T13:43:04Z) - Multi-Temporal Relationship Inference in Urban Areas [75.86026742632528]
場所間の時間的関係を見つけることは、動的なオフライン広告やスマートな公共交通計画など、多くの都市アプリケーションに役立つ。
空間的に進化するグラフニューラルネットワーク(SEENet)を含むグラフ学習方式によるTrialの解を提案する。
SEConvは時間内アグリゲーションと時間間伝搬を実行し、位置メッセージパッシングの観点から、多面的に空間的に進化するコンテキストをキャプチャする。
SE-SSLは、位置表現学習を強化し、関係の空間性をさらに扱えるように、グローバルな方法でタイムアウェアな自己教師型学習タスクを設計する。
論文 参考訳(メタデータ) (2023-06-15T07:48:32Z) - A Contextual Master-Slave Framework on Urban Region Graph for Urban
Village Detection [68.84486900183853]
都市域を階層的にモデル化する都市域グラフ(URG)を構築した。
そこで我々は,都市部をURGから効果的に検出する新しいコンテキスト・マスタ・スレーブ・フレームワークを設計した。
提案手法は,都市部における紫外線検出の一般性と特異性のバランスをとることができる。
論文 参考訳(メタデータ) (2022-11-26T18:17:39Z) - Effective Urban Region Representation Learning Using Heterogeneous Urban
Graph Attention Network (HUGAT) [0.0]
都市域の表現を学習するためのヘテロジニアスな都市グラフアテンションネットワーク(HUGAT)を提案する。
ニューヨークのデータに関する我々の実験では、HUGATは最先端のすべてのモデルより優れています。
論文 参考訳(メタデータ) (2022-02-18T04:59:20Z) - Methodological Foundation of a Numerical Taxonomy of Urban Form [62.997667081978825]
本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
論文 参考訳(メタデータ) (2021-04-30T12:47:52Z) - Discovering Underground Maps from Fashion [80.02941583103612]
本研究では,都市部の地下地図を自動的に作成する手法を提案する。
本手法は,都市全域から公開されている画像を用いて,類似のファッションセンスを持つ地域を探索し,地図を監督せずにセグメント化する。
論文 参考訳(メタデータ) (2020-12-04T23:40:59Z) - City limits in the age of smartphones and urban scaling [0.0]
都市計画は、都市システム全体にわたる都市境界を定義するための適切な基準をまだ欠いている。
ICTは、都市システムのより正確な記述を記述する可能性を提供する。
都市境界を定義するため,大量の携帯電話記録に計算手法を適用した。
論文 参考訳(メタデータ) (2020-05-06T17:31:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。