論文の概要: Human vs. AI Safety Perception? Decoding Human Safety Perception with Eye-Tracking Systems, Street View Images, and Explainable AI
- arxiv url: http://arxiv.org/abs/2509.25457v1
- Date: Mon, 29 Sep 2025 20:05:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.304788
- Title: Human vs. AI Safety Perception? Decoding Human Safety Perception with Eye-Tracking Systems, Street View Images, and Explainable AI
- Title(参考訳): 人間対AIの安全知覚? 目視追跡システム、ストリートビュー画像、説明可能なAIで人間の安全知覚をデコードする
- Authors: Yuhao Kang, Junda Chen, Liu Liu, Kshitij Sharmad, Martina Mazzarello, Simone Mora, Fabio Duarte, Carlo Ratti,
- Abstract要約: アイトラッキングシステムは、ユーザーが見ているものや、特定の環境要素にどれくらいの時間従事しているかを定量化する。
安全な環境を認識する際に人間の注意を引き付ける重要な視覚要素を同定する。
これらの洞察は、都市の特徴が人間の安全知覚に影響を与えるというより人間中心の理解を提供する。
- 参考スコア(独自算出の注目度): 7.691305223886377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The way residents perceive safety plays an important role in how they use public spaces. Studies have combined large-scale street view images and advanced computer vision techniques to measure the perception of safety of urban environments. Despite their success, such studies have often overlooked the specific environmental visual factors that draw human attention and trigger people's feelings of safety perceptions. In this study, we introduce a computational framework that enriches the existing body of literature on place perception by using eye-tracking systems with street view images and deep learning approaches. Eye-tracking systems quantify not only what users are looking at but also how long they engage with specific environmental elements. This allows us to explore the nuance of which visual environmental factors influence human safety perceptions. We conducted our research in Helsingborg, Sweden, where we recruited volunteers outfitted with eye-tracking systems. They were asked to indicate which of the two street view images appeared safer. By examining participants' focus on specific features using Mean Object Ratio in Highlighted Regions (MoRH) and Mean Object Hue (MoH), we identified key visual elements that attract human attention when perceiving safe environments. For instance, certain urban infrastructure and public space features draw more human attention while the sky is less relevant in influencing safety perceptions. These insights offer a more human-centered understanding of which urban features influence human safety perceptions. Furthermore, we compared the real human attention from eye-tracking systems with attention maps obtained from eXplainable Artificial Intelligence (XAI) results. Several XAI models were tested, and we observed that XGradCAM and EigenCAM most closely align with human safety perceptual patterns.
- Abstract(参考訳): 住民の安心感は公共空間の使い方において重要な役割を担っている。
大規模なストリートビュー画像と高度なコンピュータビジョン技術を組み合わせて、都市環境の安全性を計測している。
彼らの成功にもかかわらず、このような研究はしばしば、人間の注意を引き、人々の安心感を刺激する特定の環境視覚的要因を見落としている。
本研究では,街路画像を用いた視線追跡システムと深層学習手法を用いて,位置認識における既存の文献を豊かにする計算フレームワークを提案する。
アイトラッキングシステムは、ユーザーが見ているものだけでなく、特定の環境要素にどれくらいの時間従事しているかを定量化する。
これにより、視覚的環境要因が人間の安全知覚に影響を与えるニュアンスを探索することができる。
スウェーデンのヘルシンボー(Helsingborg)で調査を行い、視線追跡システムを備えたボランティアを募集しました。
2つのストリートビューイメージのうちどれがより安全に見えるかを示すように求められた。
本研究は,MoRH(Moan Object Ratio in Highlighted Regions)とMoH(Mean Object Hue)を用いて,被験者の特定の特徴に着目し,安全環境の認識において人間の注意を惹きつける重要な視覚要素を特定した。
例えば、ある都市インフラや公共空間の特徴は、空が安全性の知覚に影響を与えることにはあまり関係がないのに対して、より人間の注意を引き付けている。
これらの洞察は、都市の特徴が人間の安全知覚に影響を与えるというより人間中心の理解を提供する。
さらに、視線追跡システムからの実際の人間の注意を、eXplainable Artificial Intelligence (XAI)の結果から得られた注意マップと比較した。
いくつかのXAIモデルを検証したところ、XGradCAMとEigenCAMは人間の安全知覚パターンと最もよく一致していることがわかった。
関連論文リスト
- Emergent Active Perception and Dexterity of Simulated Humanoids from Visual Reinforcement Learning [69.71072181304066]
本稿では,擬似ヒューマノイドを用いた視覚駆動全身制御フレームワークであるPerceptive Dexterous Control (PDC)を紹介する。
PDCは、タスク仕様のためのエゴセントリックなビジョンのみを運用し、ビジュアルキューによるオブジェクト検索、ターゲット配置、スキル選択を可能にする。
強化学習によるスクラッチからのトレーニングは,能動探索などの創発的な行動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-18T07:33:31Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Urban Safety Perception Assessments via Integrating Multimodal Large Language Models with Street View Images [5.799322786332704]
都市の安全知覚を測定することは、伝統的に人的資源に大きく依存する重要かつ複雑な作業である。
マルチモーダル大規模言語モデル(MLLM)の最近の進歩は、強力な推論と分析能力を示している。
都市全体の安全指標を迅速に評価するための,CLIP機能とK-Nearest Neighbors(K-NN)検索に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T06:03:13Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。