論文の概要: UrbanFeel: A Comprehensive Benchmark for Temporal and Perceptual Understanding of City Scenes through Human Perspective
- arxiv url: http://arxiv.org/abs/2509.22228v1
- Date: Fri, 26 Sep 2025 11:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.398524
- Title: UrbanFeel: A Comprehensive Benchmark for Temporal and Perceptual Understanding of City Scenes through Human Perspective
- Title(参考訳): UrbanFeel: 人間の視点による都市景観の時間的・知覚的理解のための総合的ベンチマーク
- Authors: Jun He, Yi Lin, Zilong Huang, Jiacong Yin, Junyan Ye, Yuchuan Zhou, Weijia Li, Xiang Zhang,
- Abstract要約: UrbanFeelは、3つの認知的に進歩的な次元にまたがる、慎重に構築された視覚的質問からなる。
Gemini-2.5 Proは、人間のエキスパートレベルに近づいているため、全体的なパフォーマンスが最高である。
- 参考スコア(独自算出の注目度): 26.682345246235766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Urban development impacts over half of the global population, making human-centered understanding of its structural and perceptual changes essential for sustainable development. While Multimodal Large Language Models (MLLMs) have shown remarkable capabilities across various domains, existing benchmarks that explore their performance in urban environments remain limited, lacking systematic exploration of temporal evolution and subjective perception of urban environment that aligns with human perception. To address these limitations, we propose UrbanFeel, a comprehensive benchmark designed to evaluate the performance of MLLMs in urban development understanding and subjective environmental perception. UrbanFeel comprises 14.3K carefully constructed visual questions spanning three cognitively progressive dimensions: Static Scene Perception, Temporal Change Understanding, and Subjective Environmental Perception. We collect multi-temporal single-view and panoramic street-view images from 11 representative cities worldwide, and generate high-quality question-answer pairs through a hybrid pipeline of spatial clustering, rule-based generation, model-assisted prompting, and manual annotation. Through extensive evaluation of 20 state-of-the-art MLLMs, we observe that Gemini-2.5 Pro achieves the best overall performance, with its accuracy approaching human expert levels and narrowing the average gap to just 1.5\%. Most models perform well on tasks grounded in scene understanding. In particular, some models even surpass human annotators in pixel-level change detection. However, performance drops notably in tasks requiring temporal reasoning over urban development. Additionally, in the subjective perception dimension, several models reach human-level or even higher consistency in evaluating dimension such as beautiful and safety.
- Abstract(参考訳): 都市開発は世界の人口の半分以上に影響し、持続可能な開発に必要な構造的・知覚的な変化を人間中心で理解する。
MLLM(Multimodal Large Language Models)は、様々な領域で顕著な能力を示してきたが、都市環境におけるパフォーマンスを探索する既存のベンチマークは、時間的進化の体系的な探索や、人間の知覚に合わせた都市環境の主観的な認識が欠如している。
これらの制約に対処するために,都市開発理解と主観的環境認識におけるMLLMの性能を評価するための総合的なベンチマークであるUrbanFeelを提案する。
UrbanFeelは、認知的に進歩的な3つの次元(静的シーン知覚、時間的変化理解、主観的環境知覚)にまたがる、慎重に構築された14.3Kの視覚的質問で構成されている。
我々は,世界11の代表的な都市から多時期的な単一ビューとパノラマストリートビューの画像を収集し,空間クラスタリング,ルールベース生成,モデル支援プロンプト,手動アノテーションのハイブリッドパイプラインを通じて高品質な質問応答ペアを生成する。
Gemini-2.5 Proは,20種類の最先端MLLMを広範囲に評価することにより,その精度が人間専門家レベルに近づき,平均ギャップを1.5\%に縮めることにより,最高の総合的な性能を実現している。
ほとんどのモデルは、シーン理解に根ざしたタスクでうまく機能する。
特に、一部のモデルは、ピクセルレベルの変化検出において人間のアノテータを超えている。
しかし、特に都市開発に対する時間的推論を必要とするタスクではパフォーマンスが低下する。
さらに、主観的知覚次元では、美や安全性などの次元を評価する際に、複数のモデルが人間のレベルに達するか、さらに高い一貫性に達する。
関連論文リスト
- HumanPCR: Probing MLLM Capabilities in Diverse Human-Centric Scenes [72.26829188852139]
HumanPCRは、人間の視覚的コンテキストに関するMLLMの能力を調べるための評価スイートである。
Human-P、HumanThought-C、Human-Rは、6,000以上の人間認証された複数の選択質問を特徴としている。
Human-Rは、手動でキュレートされたビデオ推論テストを提供する。
論文 参考訳(メタデータ) (2025-08-19T09:52:04Z) - HV-MMBench: Benchmarking MLLMs for Human-Centric Video Understanding [79.06209664703258]
MLLM(Multimodal Large Language Models)は、画像とビデオの両方を含む視覚的理解タスクにおいて、大きな進歩を見せている。
既存の人間中心のベンチマークは、主にビデオ生成の品質と行動認識を強調し、人間中心のシナリオに必要な知覚と認知の能力を見落としている。
我々は,人間中心のビデオ理解におけるMLLMのより総合的な評価を提供するために,厳格にキュレートされたベンチマークを提案する。
論文 参考訳(メタデータ) (2025-07-07T11:52:24Z) - UrBench: A Comprehensive Benchmark for Evaluating Large Multimodal Models in Multi-View Urban Scenarios [60.492736455572015]
複雑な多視点都市シナリオにおけるLMM評価のためのベンチマークであるUrBenchを提案する。
UrBenchには、リージョンレベルとロールレベルの両方で、厳密にキュレートされた11.6Kの質問が含まれている。
21のLMMに対する評価は、現在のLMMが都市環境においていくつかの面で苦戦していることを示している。
論文 参考訳(メタデータ) (2024-08-30T13:13:35Z) - CityBench: Evaluating the Capabilities of Large Language Models for Urban Tasks [10.22654338686634]
大規模言語モデル (LLMs) と視覚言語モデル (VLMs) は、実際の有効性と信頼性を確保するために欠かせないものとなっている。
都市研究のための体系的評価ベンチマークを構築する上での課題は、都市データの多様性にある。
本稿では,対話型シミュレータによる評価プラットフォームである textitCityBench を設計する。
論文 参考訳(メタデータ) (2024-06-20T02:25:07Z) - CityPulse: Fine-Grained Assessment of Urban Change with Street View Time
Series [12.621355888239359]
都市変革は、個人と地域社会の両方に大きな社会的影響を及ぼす。
本研究では,大規模に構築された環境における物理的変化を効果的に捉えるために,エンドツーエンドの変更検出モデルを提案する。
我々のアプローチは既存のデータセットを補完し、都市の変化をきめ細やかに正確に評価する可能性がある。
論文 参考訳(メタデータ) (2024-01-02T08:57:09Z) - Methodological Foundation of a Numerical Taxonomy of Urban Form [62.997667081978825]
本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
論文 参考訳(メタデータ) (2021-04-30T12:47:52Z) - Indexical Cities: Articulating Personal Models of Urban Preference with
Geotagged Data [0.0]
本研究は,都市空間における個人の嗜好を特徴付け,特定の観測者に対する未知の好ましくない場所のスペクトルを予測する。
多くの都市認識研究とは異なり、我々の意図は都市品質の客観的な尺度を提供する手段ではなく、都市や都市についての個人的な見解を表現することである。
論文 参考訳(メタデータ) (2020-01-23T11:00:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。