論文の概要: Categorizing the Visual Environment and Analyzing the Visual Attention
of Dogs
- arxiv url: http://arxiv.org/abs/2311.11988v1
- Date: Mon, 20 Nov 2023 18:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 17:23:22.901892
- Title: Categorizing the Visual Environment and Analyzing the Visual Attention
of Dogs
- Title(参考訳): 犬の視覚環境の分類と視覚注意の分析
- Authors: Shreyas Sundara Raman, Madeline H. Pelgrim, Daphna Buchsbaum and
Thomas Serre
- Abstract要約: 11匹以上の犬を視認できる対象を分類するために、1198匹以上の視線を持つデータセットを収集、研究しました。
収集したデータのごく一部を使用して、新規画像領域のMaskRCNNを微調整する。
犬11頭の間には個体差はほとんどなく, バス, 植物, 舗装, 建設設備の視認性の向上が観察された。
- 参考スコア(独自算出の注目度): 11.511035466613109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dogs have a unique evolutionary relationship with humans and serve many
important roles e.g. search and rescue, blind assistance, emotional support.
However, few datasets exist to categorize visual features and objects available
to dogs, as well as how dogs direct their visual attention within their
environment. We collect and study a dataset with over 11,698 gazes to
categorize the objects available to be gazed at by 11 dogs in everyday outdoor
environments i.e. a walk around a college campus and urban area. We explore the
availability of these object categories and the visual attention of dogs over
these categories using a head mounted eye tracking apparatus. A small portion
(approx. 600 images or < 20% of total dataset) of the collected data is used to
fine tune a MaskRCNN for the novel image domain to segment objects present in
the scene, enabling further statistical analysis on the visual gaze tendencies
of dogs. The MaskRCNN, with eye tracking apparatus, serves as an end to end
model for automatically classifying the visual fixations of dogs. The fine
tuned MaskRCNN performs far better than chance. There are few individual
differences between the 11 dogs and we observe greater visual fixations on
buses, plants, pavement, and construction equipment. This work takes a step
towards understanding visual behavior of dogs and their interaction with the
physical world.
- Abstract(参考訳): 犬は人間と独特の進化的関係を持ち、探索や救助、盲目の援助、感情的支援など、多くの重要な役割を担っている。
しかし、犬に利用可能な視覚特徴やオブジェクトを分類するためのデータセットは少なく、犬がどのようにして環境の中で視覚的な注意を向けるかもわからない。
11,698点以上の視線を持つデータセットを収集・調査し,大学キャンパスや都市部を歩き回る屋外環境において,11匹の犬が視認できる対象を分類した。
本研究は,頭部装着眼球追跡装置を用いて,これらの対象カテゴリの利用可能性と,これらのカテゴリに対する犬の視覚的注意力について検討した。
収集されたデータの小さな部分(約600画像または全データセットの20%)を用いて、新しい画像領域のMaskRCNNを微調整し、シーンに存在するオブジェクトをセグメント化し、犬の視線傾向のさらなる統計的解析を可能にする。
目追跡装置を備えたMaskRCNNは、犬の視覚的固定を自動的に分類するエンドエンドエンドモデルとして機能する。
微調整されたMaskRCNNは、偶然よりもはるかに優れている。
11匹の犬の間には個人差がほとんどなく、バス、植物、舗装、建設設備の視認性が向上している。
この研究は、犬の視覚行動とその物理的世界との相互作用を理解するための一歩を踏み出します。
関連論文リスト
- DogFLW: Dog Facial Landmarks in the Wild Dataset [5.51724397504775]
犬3,274点の注釈付き画像を含む類似データセットを開発した。
我々のデータセットは、46の顔解剖に基づくランドマークのスキームに基づいている。
論文 参考訳(メタデータ) (2024-05-19T09:59:36Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Visual attention information can be traced on cortical response but not
on the retina: evidence from electrophysiological mouse data using natural
images as stimuli [0.0]
一次視覚野(V1)では、約10%のニューロンのサブセットが、正解と非正解の視覚領域に対して異なる反応を示す。
網膜は、視覚的注意に関してナイーブなままであり、皮質反応は視覚的注意情報を解釈する。
論文 参考訳(メタデータ) (2023-08-01T13:09:48Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Deep Learning Models for Automated Classification of Dog Emotional
States from Facial Expressions [1.32383730641561]
近年のディープラーニング技術を用いて,犬の(肯定的な)期待と(否定的な)フラストレーションを分類した。
我々の知る限りでは、この研究はイヌの感情を自動分類するタスクに最初に取り組むものである。
論文 参考訳(メタデータ) (2022-06-11T21:37:38Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Visual Chirality [51.685596116645776]
視覚データの統計が反射によってどのように変化するかを検討する。
我々の研究は、データ強化、自己教師付き学習、画像鑑定に影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T20:48:23Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z) - Identifying Individual Dogs in Social Media Images [1.14219428942199]
この研究は、ペットと飼い主を対象とするソーシャルネットワークPet2Netとの共同プロジェクトの一環だ。
個々の犬を検知し、認識するために、Inception v3とSSD Inception v2アーキテクチャのトランスファーラーニングとオブジェクト検出のアプローチを組み合わせる。
個々の犬を識別すると94.59%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-14T21:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。