論文の概要: The Psychophysics of Human Three-Dimensional Active Visuospatial
Problem-Solving
- arxiv url: http://arxiv.org/abs/2306.11756v1
- Date: Mon, 19 Jun 2023 19:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 16:37:31.589592
- Title: The Psychophysics of Human Three-Dimensional Active Visuospatial
Problem-Solving
- Title(参考訳): ヒト3次元能動振動空間問題解決の心理物理学
- Authors: Markus D. Solbach, John K. Tsotsos
- Abstract要約: 2つの物理的3Dオブジェクトは視覚的に同じか?
人間はこの仕事を訓練なしで非常に得意であり、平均精度は93.82%である。
多くの治験後, 学習効果は認められなかったが, 応答時間, 固定回数, 頭部運動量に何らかの効果が認められた。
- 参考スコア(独自算出の注目度): 12.805267089186533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our understanding of how visual systems detect, analyze and interpret visual
stimuli has advanced greatly. However, the visual systems of all animals do
much more; they enable visual behaviours. How well the visual system performs
while interacting with the visual environment and how vision is used in the
real world have not been well studied, especially in humans. It has been
suggested that comparison is the most primitive of psychophysical tasks. Thus,
as a probe into these active visual behaviours, we use a same-different task:
are two physical 3D objects visually the same? This task seems to be a
fundamental cognitive ability. We pose this question to human subjects who are
free to move about and examine two real objects in an actual 3D space. Past
work has dealt solely with a 2D static version of this problem. We have
collected detailed, first-of-its-kind data of humans performing a visuospatial
task in hundreds of trials. Strikingly, humans are remarkably good at this task
without any training, with a mean accuracy of 93.82%. No learning effect was
observed on accuracy after many trials, but some effect was seen for response
time, number of fixations and extent of head movement. Subjects demonstrated a
variety of complex strategies involving a range of movement and eye fixation
changes, suggesting that solutions were developed dynamically and tailored to
the specific task.
- Abstract(参考訳): 視覚システムが視覚刺激をどのように検出し、分析し、解釈するかの理解は、大きく進歩した。
しかし、全ての動物の視覚系はより多く、視覚的行動を可能にする。
視覚システムが視覚環境と相互作用しながらどのように機能するか、現実世界で視覚がどのように使われているかは、特に人間ではよく研究されていない。
比較は精神物理学的なタスクの最も原始的であることが示唆されている。
したがって、これらのアクティブな視覚行動を調べるために、我々は同じ異なるタスクを使う:2つの物理的3Dオブジェクトは視覚的に同じか?
このタスクは基本的な認知能力のようです。
この質問は、自由に動き回ったり、実際の3d空間で2つの実際の物体を調べることができる被験者に当てはまる。
過去の研究は、この問題の2D静的バージョンのみに対処してきた。
何百もの実験で、人間の視覚活動に関する詳細なデータを集めました。
興味深いことに、人間はトレーニングなしでこの仕事を非常に得意とし、平均精度は93.82%である。
多くの治験後, 学習効果は認められなかったが, 応答時間, 固定数, 頭部運動量に何らかの効果が認められた。
被験者は、様々な動きと眼球固定の変化を含む様々な複雑な戦略を示し、解は動的に開発され、特定のタスクに合わせて調整されたことを示唆した。
関連論文リスト
- Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - ScanERU: Interactive 3D Visual Grounding based on Embodied Reference
Understanding [67.21613160846299]
Embodied Reference Understanding (ERU) はこの懸念に対して最初に設計されている。
ScanERUと呼ばれる新しいデータセットは、このアイデアの有効性を評価するために構築されている。
論文 参考訳(メタデータ) (2023-03-23T11:36:14Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Understanding top-down attention using task-oriented ablation design [0.22940141855172028]
トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
論文 参考訳(メタデータ) (2021-06-08T21:01:47Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - View-invariant action recognition [3.553493344868414]
人間の行動によって生じる多面的外見の変動パターンは、実行された行動を特定するための鍵となる。
ビュー不変行動認識の研究は、見えない視点から人間の行動を認識することでこの問題に対処する。
論文 参考訳(メタデータ) (2020-09-01T18:08:46Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。