論文の概要: Towards a Human-Centred Cognitive Model of Visuospatial Complexity in
Everyday Driving
- arxiv url: http://arxiv.org/abs/2006.00059v2
- Date: Tue, 2 Jun 2020 07:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:06:01.787486
- Title: Towards a Human-Centred Cognitive Model of Visuospatial Complexity in
Everyday Driving
- Title(参考訳): 日常運転における視覚空間複雑度の人間中心認知モデルに向けて
- Authors: Vasiliki Kondyli and Mehul Bhatt and Jakob Suchan
- Abstract要約: 我々は,自然主義運転条件下での空間的複雑性の人間中心認知モデルを構築した。
視覚的知覚に焦点を当てたモデルでは、選択された文脈で識別可能な量的、構造的、動的属性が組み込まれている。
- 参考スコア(独自算出の注目度): 3.480626767752489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a human-centred, cognitive model of visuospatial complexity in
everyday, naturalistic driving conditions. With a focus on visual perception,
the model incorporates quantitative, structural, and dynamic attributes
identifiable in the chosen context; the human-centred basis of the model lies
in its behavioural evaluation with human subjects with respect to
psychophysical measures pertaining to embodied visuoauditory attention. We
report preliminary steps to apply the developed cognitive model of visuospatial
complexity for human-factors guided dataset creation and benchmarking, and for
its use as a semantic template for the (explainable) computational analysis of
visuospatial complexity.
- Abstract(参考訳): 我々は,日常的,自然主義的な運転条件下での視覚空間複雑性の認知モデルを開発する。
視覚的知覚に焦点をあてたモデルでは、選択された文脈で識別可能な量的、構造的、動的属性が組み込まれている。
本報告では,人間-因子誘導データセット作成とベンチマークにおける視覚複雑性の認知モデルの適用と,視覚複雑性の(説明可能な)計算解析のための意味的テンプレートとしての利用について概説する。
関連論文リスト
- Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Predicting long-term collective animal behavior with deep learning [67.06717327342473]
本研究は,魚種Hemigrammus rhodostomusにおける社会的相互作用の深層学習モデルを導入する。
実験結果と最先端解析モデルの結果を比較した。
我々は,ソーシャルインタラクションの機械学習モデルが,その分析モデルと直接競合できることを実証した。
論文 参考訳(メタデータ) (2023-02-14T05:25:03Z) - Are Neural Topic Models Broken? [81.15470302729638]
トピックモデルの自動評価と人的評価の関係について検討する。
ニューラルトピックモデルは、確立された古典的手法と比較して、両方の点においてより悪くなる。
論文 参考訳(メタデータ) (2022-10-28T14:38:50Z) - Zero-shot visual reasoning through probabilistic analogical mapping [2.049767929976436]
視覚的確率論的アナロジカルマッピング(visual Probabilistic Analogical Mapping)は2つのアプローチを合成する視覚的推論のモデルである。
直接学習なしでは、VisiPAMはアナログマッピングタスクにおいて最先端のディープラーニングモデルよりも優れていることを示す。
さらに,ビジパムは,異なるカテゴリにまたがる3Dオブジェクトのマッピングを含む新しいタスクにおいて,人間のパフォーマンスパターンと密に一致している。
論文 参考訳(メタデータ) (2022-09-29T20:29:26Z) - Towards a Predictive Processing Implementation of the Common Model of
Cognition [79.63867412771461]
本稿では,ニューラル生成符号化とホログラフィック連想記憶に基づく認知モデルの実装について述べる。
提案システムは,多様なタスクから継続的に学習し,大規模に人的パフォーマンスをモデル化するエージェントを開発するための基盤となる。
論文 参考訳(メタデータ) (2021-05-15T22:55:23Z) - Model-agnostic Fits for Understanding Information Seeking Patterns in
Humans [0.0]
不確実な意思決定タスクでは、人間はそのタスクに関連する情報を探し、統合し、行動する際、特徴的なバイアスを示す。
ここでは,これらのバイアスを総合的に測定・分類した,大規模に収集した先行設計実験のデータを再検討した。
これらのバイアスを集約的に再現するディープラーニングモデルを設計し、個々の行動の変化を捉えます。
論文 参考訳(メタデータ) (2020-12-09T04:34:58Z) - Enhancing a Neurocognitive Shared Visuomotor Model for Object
Identification, Localization, and Grasping With Learning From Auxiliary Tasks [0.0]
本稿では,複数の物体を持つシーンにおいて,対象物を識別,局所化,把握するロボット作業のための統合型視覚神経モデルについて追従する。
我々のRetinanetベースのモデルは、生物学的にインスパイアされた発達アプローチで、視覚運動能力のエンドツーエンドのトレーニングを可能にします。
論文 参考訳(メタデータ) (2020-09-26T19:45:15Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z) - A Meta-Bayesian Model of Intentional Visual Search [0.0]
本稿では,分類的知覚とササード計画の根底にある神経機構のベイズ的解釈を取り入れたビジュアルサーチの計算モデルを提案する。
擬似行動と人的行動の有意義な比較を可能にするため、参加者は視線に追従する窓から隠蔽されたMNIST桁を分類する必要がある。
本モデルは,観察された人間の行動から主観的パラメータを回収し,高い解釈可能性を維持しながら,分類精度などの人間の行動指標を再カプセル化することができる。
論文 参考訳(メタデータ) (2020-06-05T16:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。