論文の概要: From Static to Dynamic: Evaluating the Perceptual Impact of Dynamic Elements in Urban Scenes via MLLM-Guided Generative Inpainting
- arxiv url: http://arxiv.org/abs/2512.24513v2
- Date: Thu, 01 Jan 2026 21:40:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 13:15:27.768725
- Title: From Static to Dynamic: Evaluating the Perceptual Impact of Dynamic Elements in Urban Scenes via MLLM-Guided Generative Inpainting
- Title(参考訳): 静的から動的へ:MLLM誘導による都市景観における動的要素の知覚的影響評価
- Authors: Zhiwei Wei, Mengzi Zhang, Boyan Lu, Zhitao Deng, Nai Yang, Hua Liao,
- Abstract要約: 既存の研究の多くは、都市景観を静的なものとして扱い、歩行者や車両のような動的要素の役割を無視している。
本研究では,意味的セグメンテーションとMLLM誘導による動的要素の知覚的効果を分離する枠組みを提案する。
我々は、マルチモーダル視覚特徴を用いた11の機械学習モデルを訓練し、照明条件、人間の存在、深度の変化が知覚の変化を導く重要な要因であることを確認した。
- 参考スコア(独自算出の注目度): 1.3947005195255644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding urban perception from street view imagery has become a central topic in urban analytics and human centered urban design. However, most existing studies treat urban scenes as static and largely ignore the role of dynamic elements such as pedestrians and vehicles, raising concerns about potential bias in perception based urban analysis. To address this issue, we propose a controlled framework that isolates the perceptual effects of dynamic elements by constructing paired street view images with and without pedestrians and vehicles using semantic segmentation and MLLM guided generative inpainting. Based on 720 paired images from Dongguan, China, a perception experiment was conducted in which participants evaluated original and edited scenes across six perceptual dimensions. The results indicate that removing dynamic elements leads to a consistent 30.97% decrease in perceived vibrancy, whereas changes in other dimensions are more moderate and heterogeneous. To further explore the underlying mechanisms, we trained 11 machine learning models using multimodal visual features and identified that lighting conditions, human presence, and depth variation were key factors driving perceptual change. At the individual level, 65% of participants exhibited significant vibrancy changes, compared with 35-50% for other dimensions; gender further showed a marginal moderating effect on safety perception. Beyond controlled experiments, the trained model was extended to a city-scale dataset to predict vibrancy changes after the removal of dynamic elements. The city level results reveal that such perceptual changes are widespread and spatially structured, affecting 73.7% of locations and 32.1% of images, suggesting that urban perception assessments based solely on static imagery may substantially underestimate urban liveliness.
- Abstract(参考訳): ストリートビューの画像から都市認識を理解することは、都市分析と人間中心の都市デザインにおいて中心的なトピックとなっている。
しかし、既存の研究の多くは、都市景観を静的なものとして扱い、歩行者や車両といった動的要素の役割をほとんど無視し、認識に基づく都市分析における潜在的なバイアスに関する懸念を提起している。
そこで本研究では,歩行者と歩行者と車とを併用し,セマンティックセグメンテーションとMLLM誘導によるジェネレーティブ・インペインティングを用いて,動的要素の知覚的効果を分離する制御フレームワークを提案する。
中国・東南省で撮影された720枚のペア画像に基づいて,6次元の原画・編集シーンを被験者が評価する知覚実験を行った。
その結果、動的元素の除去は、視力の持続的な30.97%低下につながるが、他の次元の変化はより中等度で不均一であることがわかった。
基礎となるメカニズムをさらに探求するため,マルチモーダル視覚特徴を用いた11の機械学習モデルを訓練し,照明条件,人的存在,深度の変化が知覚的変化を引き起こす重要な要因であることを確認した。
個人レベルでは,65%の参加者が,他の次元では35~50%に対して顕著な視力変化を示した。
制御された実験の他に、トレーニングされたモデルは都市規模のデータセットに拡張され、動的要素の除去後の鮮度の変化を予測する。
都市レベルの結果は、こうした知覚的変化が広く、空間的に構造化され、73.7%の場所と32.1%のイメージに影響し、静的なイメージのみに基づく都市認識評価が都市生活を著しく過小評価する可能性があることを示唆している。
関連論文リスト
- Do Street View Imagery and Public Participation GIS align: Comparative Analysis of Urban Attractiveness [0.0]
SVI(Street View Imagery)とPPGIS(Public Participation GIS)は、場所に基づく知覚を捉えるための2つの重要なアプローチである。
本研究では,フィンランドのヘルシンキにおける都市全体でのPSGIS調査を通じて,SVIによる知覚的魅力と住民の体験との整合性について検討した。
論文 参考訳(メタデータ) (2025-11-04T12:40:12Z) - RoboView-Bias: Benchmarking Visual Bias in Embodied Agents for Robotic Manipulation [67.38036090822982]
ロボット操作における視覚バイアスの定量化を目的とした,最初のベンチマークであるRoboView-Biasを提案する。
我々は、個々の視覚的要因とその相互作用によって引き起こされるバイアスの堅牢な測定を可能にする2,127のタスクインスタンスを作成します。
本研究は,視覚バイアスの系統的解析が,安全で信頼性の高い汎用的なエンボディエージェントの開発に必須であることを示す。
論文 参考訳(メタデータ) (2025-09-26T13:53:25Z) - PIGUIQA: A Physical Imaging Guided Perceptual Framework for Underwater Image Quality Assessment [59.9103803198087]
水中画像品質評価(UIQA)のための物理画像ガイド型知覚フレームワークを提案する。
水中放射移動理論を応用して、物理に基づく画像推定を統合して、これらの歪みの定量的な測定値を確立する。
提案モデルは,画像品質のスコアを正確に予測し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-12-20T03:31:45Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - CityPulse: Fine-Grained Assessment of Urban Change with Street View Time
Series [12.621355888239359]
都市変革は、個人と地域社会の両方に大きな社会的影響を及ぼす。
本研究では,大規模に構築された環境における物理的変化を効果的に捉えるために,エンドツーエンドの変更検出モデルを提案する。
我々のアプローチは既存のデータセットを補完し、都市の変化をきめ細やかに正確に評価する可能性がある。
論文 参考訳(メタデータ) (2024-01-02T08:57:09Z) - City-Wide Perceptions of Neighbourhood Quality using Street View Images [5.340189314359048]
本稿では,ロンドンに拠点を置き,画像とレーティングの収集,Web開発,モデルトレーニング,マッピングなどの手法について述べる。
住民の社会的結束、コミュニティの感覚、安全、活動、メンタルヘルスに影響を与える。
論文 参考訳(メタデータ) (2022-11-22T10:16:35Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Learning Motion-Dependent Appearance for High-Fidelity Rendering of
Dynamic Humans from a Single Camera [49.357174195542854]
外観のダイナミクスを学ぶ上で重要な課題は、違法に大量の観測を必要とすることである。
本手法は,1つの視点映像から,身体のポーズや新しいビューを時間的に協調的に生成できることを示す。
論文 参考訳(メタデータ) (2022-03-24T00:22:03Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Quantifying urban streetscapes with deep learning: focus on aesthetic
evaluation [4.129225533930966]
本稿では,東京の街路景観において,ファサードや看板でカバーされたエリアを識別するために用意されたユニークなデータセット上でのディープラーニングモデルの性能について報告する。
このモデルは、IoU(Intersection-over-Union)によって測定された精度63.17 %を達成した。
論文 参考訳(メタデータ) (2021-06-29T12:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。