論文の概要: ObjectVisA-120: Object-based Visual Attention Prediction in Interactive Street-crossing Environments
- arxiv url: http://arxiv.org/abs/2601.13218v1
- Date: Mon, 19 Jan 2026 16:48:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.975404
- Title: ObjectVisA-120: Object-based Visual Attention Prediction in Interactive Street-crossing Environments
- Title(参考訳): ObjectVisA-120:対話型街路横断環境におけるオブジェクトベースの視覚的注意予測
- Authors: Igor Vozniak, Philipp Mueller, Nils Lipp, Janis Sprenger, Konstantin Poddubnyy, Davit Hovhannisyan, Christian Mueller, Andreas Bulling, Philipp Slusallek,
- Abstract要約: 本稿では,オブジェクトに基づく注意評価に特化して,仮想空間における空間横断ナビゲーションの新たなデータセットを提案する。
提示されたデータセットのユニークさは、現実世界の環境における同等のデータ収集を極めて困難にする倫理的および安全に関する課題にある。
本稿では,オブジェクトベースの視覚的注意モデルの性能を評価するための新しい指標として,オブジェクトベース類似度(oSIM)を提案する。
- 参考スコア(独自算出の注目度): 15.487686125490812
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The object-based nature of human visual attention is well-known in cognitive science, but has only played a minor role in computational visual attention models so far. This is mainly due to a lack of suitable datasets and evaluation metrics for object-based attention. To address these limitations, we present \dataset~ -- a novel 120-participant dataset of spatial street-crossing navigation in virtual reality specifically geared to object-based attention evaluations. The uniqueness of the presented dataset lies in the ethical and safety affiliated challenges that make collecting comparable data in real-world environments highly difficult. \dataset~ not only features accurate gaze data and a complete state-space representation of objects in the virtual environment, but it also offers variable scenario complexities and rich annotations, including panoptic segmentation, depth information, and vehicle keypoints. We further propose object-based similarity (oSIM) as a novel metric to evaluate the performance of object-based visual attention models, a previously unexplored performance characteristic. Our evaluations show that explicitly optimising for object-based attention not only improves oSIM performance but also leads to an improved model performance on common metrics. In addition, we present SUMGraph, a Mamba U-Net-based model, which explicitly encodes critical scene objects (vehicles) in a graph representation, leading to further performance improvements over several state-of-the-art visual attention prediction methods. The dataset, code and models will be publicly released.
- Abstract(参考訳): 人間の視覚的注意のオブジェクトベースの性質は認知科学ではよく知られているが、これまでは計算的視覚的注意モデルにおいて小さな役割しか果たさなかった。
これは主に、オブジェクトベースの注意のために適切なデータセットと評価指標が欠如しているためである。
これらの制限に対処するため、我々は、オブジェクトベースの注意評価に特化したバーチャルリアリティーにおける空間横断ナビゲーションの新しい120の参加者データセットである「dataset~」を提示する。
提示されたデータセットのユニークさは、現実世界の環境における同等のデータ収集を極めて困難にする倫理的および安全に関する課題にある。
\dataset~は、正確な視線データと、仮想環境におけるオブジェクトの状態空間の完全な表現だけでなく、パン光学的セグメンテーション、深度情報、車両キーポイントなど、様々なシナリオの複雑さと豊富なアノテーションも備えている。
さらに,従来の未探索の性能特性であるオブジェクトベースの視覚的注意モデルの性能を評価するための新しい指標として,オブジェクトベースの類似性(oSIM)を提案する。
評価の結果、オブジェクトベースの注意を明示的に最適化することで、oSIMの性能が向上するだけでなく、一般的なメトリクスのモデル性能も向上することが示された。
さらに,グラフ表現において重要なシーンオブジェクト(車両)を明示的に符号化したマンバU-NetモデルであるSUMGraphを提案する。
データセット、コード、モデルが公開される。
関連論文リスト
- DynOPETs: A Versatile Benchmark for Dynamic Object Pose Estimation and Tracking in Moving Camera Scenarios [20.835782699441797]
本稿では,制約のない環境下でのオブジェクトポーズ推定と追跡のための新しいデータセットDynOPETを提案する。
提案手法は,ポーズ推定とポーズ追跡を革新的に統合し,擬似ラベルを生成する。
得られたデータセットは、動くカメラから観察される動的オブジェクトの正確なポーズアノテーションを提供する。
論文 参考訳(メタデータ) (2025-03-25T13:13:44Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Attribute Descent: Simulating Object-Centric Datasets on the Content
Level and Beyond [17.949962340691673]
合成と現実の間には、コンテンツレベルと外観レベルを含む2段階のドメインギャップが存在する。
本稿では,エンジン属性を自動的に最適化し,実世界のデータに近い合成データを実現する属性降下手法を提案する。
画像分類とオブジェクト再同定の実験により、適応された合成データが3つのシナリオで効果的に利用できることを確認した。
論文 参考訳(メタデータ) (2022-02-28T18:58:05Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。