論文の概要: PESAO: Psychophysical Experimental Setup for Active Observers
- arxiv url: http://arxiv.org/abs/2009.09933v2
- Date: Wed, 30 Sep 2020 17:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:41:19.904392
- Title: PESAO: Psychophysical Experimental Setup for Active Observers
- Title(参考訳): PESAO:アクティブオブザーバのための心理物理学実験セット
- Authors: Markus D. Solbach, John K. Tsotsos
- Abstract要約: PESAOは、3Dの世界における活発で視覚的な観察を調査するために設計されている。
400cm×300cmの範囲に広がり、120Hzの周波数でアクティブな観測者を追跡することができる。
6Dヘッドモーションの追跡と記録、視線、眼球運動型、ファースト・パーソン・ビデオ、ヘッドマウント型IMUセンサー、鳥眼ビデオ、実験ノートなどを提供する。
- 参考スコア(独自算出の注目度): 12.805267089186533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most past and present research in computer vision involves passively observed
data. Humans, however, are active observers outside the lab; they explore,
search, select what and how to look. Nonetheless, how exactly active
observation occurs in humans so that it can inform the design of active
computer vision systems is an open problem. PESAO is designed for investigating
active, visual observation in a 3D world. The goal was to build an experimental
setup for various active perception tasks with human subjects (active
observers) in mind that is capable of tracking the head and gaze. While many
studies explore human performances, usually, they use line drawings portrayed
in 2D, and no active observer is involved. PESAO allows us to bring many
studies to the three-dimensional world, even involving active observers. In our
instantiation, it spans an area of 400cm x 300cm and can track active observers
at a frequency of 120Hz. Furthermore, PESAO provides tracking and recording of
6D head motion, gaze, eye movement-type, first-person video, head-mounted IMU
sensor, birds-eye video, and experimenter notes. All are synchronized at
microsecond resolution.
- Abstract(参考訳): コンピュータビジョンにおけるほとんどの研究は、受動的に観測されたデータを含む。
しかし、人間は研究室の外で活動的な観察者であり、探索し、探索し、どのように見えるかを選択する。
それでも、アクティブなコンピュータビジョンシステムの設計を知らせるために、人間がどれだけ活発に観察するかは、オープンな問題である。
PESAOは、3Dの世界における活発で視覚的な観察を調査するために設計された。
目標は、頭部と視線を追跡できる人間の被験者(アクティブオブザーバー)を念頭に、様々なアクティブな知覚タスクのための実験的なセットアップを構築することであった。
人間のパフォーマンスを探索する研究は多いが、通常は2Dで描かれた線画を用いており、アクティブな観察者はいない。
PESAOは、アクティブな観察者でさえも、多くの研究を3次元の世界に持ち込むことができます。
私たちのインスタンスでは、400cm x 300cmの範囲に広がり、120Hzの周波数でアクティブオブザーバーを追跡することができます。
さらに、pesaoは6dヘッドモーション、視線、眼球運動タイプ、ファーストパーソンビデオ、ヘッドマウントimuセンサー、鳥眼ビデオ、実験者ノートの追跡と記録を提供する。
全てマイクロ秒の解像度で同期される。
関連論文リスト
- Stereo Vision Based Robot for Remote Monitoring with VR Support [0.0]
3DOFロボットは、人間のような頭部の動き、すなわちヨー、ピッチ、ロール、そして3Dステレオビデオを生成してリアルタイムにストリーミングする。
このビデオストリームは、VRボックスをサポートする汎用インターネットデバイスを通じてユーザに送信される。
ロボットはまた、ディープニューラルネットワークを使って動く物体や顔を追跡することもできる。
論文 参考訳(メタデータ) (2024-06-27T19:27:37Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - The Psychophysics of Human Three-Dimensional Active Visuospatial
Problem-Solving [12.805267089186533]
2つの物理的3Dオブジェクトは視覚的に同じか?
人間はこの仕事を訓練なしで非常に得意であり、平均精度は93.82%である。
多くの治験後, 学習効果は認められなかったが, 応答時間, 固定回数, 頭部運動量に何らかの効果が認められた。
論文 参考訳(メタデータ) (2023-06-19T19:36:42Z) - 3D Gaze Vis: Sharing Eye Tracking Data Visualization for Collaborative
Work in VR Environment [3.3130410344903325]
私たちは、視線カーソル、視線スポットライト、視線軌跡の3つの異なる視線追跡データ可視化を、人間の心臓のコースのためにVRシーンで設計しました。
医師の視線カーソルは、複雑な3D心臓モデルをより効果的に学習するのに役立ちます。
その結果,視線追跡データの視覚化により,VR環境における協調作業の品質と効率が向上することが示唆された。
論文 参考訳(メタデータ) (2023-03-19T12:00:53Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - View-invariant action recognition [3.553493344868414]
人間の行動によって生じる多面的外見の変動パターンは、実行された行動を特定するための鍵となる。
ビュー不変行動認識の研究は、見えない視点から人間の行動を認識することでこの問題に対処する。
論文 参考訳(メタデータ) (2020-09-01T18:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。