論文の概要: View-invariant action recognition
- arxiv url: http://arxiv.org/abs/2009.00638v1
- Date: Tue, 1 Sep 2020 18:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:26:35.910673
- Title: View-invariant action recognition
- Title(参考訳): ビュー不変動作認識
- Authors: Yogesh S Rawat, Shruti Vyas
- Abstract要約: 人間の行動によって生じる多面的外見の変動パターンは、実行された行動を特定するための鍵となる。
ビュー不変行動認識の研究は、見えない視点から人間の行動を認識することでこの問題に対処する。
- 参考スコア(独自算出の注目度): 3.553493344868414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human action recognition is an important problem in computer vision. It has a
wide range of applications in surveillance, human-computer interaction,
augmented reality, video indexing, and retrieval. The varying pattern of
spatio-temporal appearance generated by human action is key for identifying the
performed action. We have seen a lot of research exploring this dynamics of
spatio-temporal appearance for learning a visual representation of human
actions. However, most of the research in action recognition is focused on some
common viewpoints, and these approaches do not perform well when there is a
change in viewpoint. Human actions are performed in a 3-dimensional environment
and are projected to a 2-dimensional space when captured as a video from a
given viewpoint. Therefore, an action will have a different spatio-temporal
appearance from different viewpoints. The research in view-invariant action
recognition addresses this problem and focuses on recognizing human actions
from unseen viewpoints.
- Abstract(参考訳): 人間の行動認識はコンピュータビジョンの重要な問題である。
監視、人間とコンピュータのインタラクション、拡張現実、ビデオインデクシング、検索といった幅広い応用がある。
人間の行動によって生じる時空間的外観の変化パターンは、その動作を識別するための鍵となる。
我々は、人間の行動の視覚的表現を学ぶために、時空間的外観のこのダイナミクスを探索する研究を数多く見てきた。
しかし, 行動認識の研究の多くは, 共通の視点に焦点をあてており, 視点の変化がある場合, これらのアプローチはうまく機能しない。
人間の行動は3次元の環境で行われ、与えられた視点からビデオとして捉えた時に2次元空間に投影される。
したがって、アクションは、異なる視点から異なる時空間的な外観を持つ。
ビュー不変行動認識の研究はこの問題に対処し、目に見えない視点から人間の行動を認識することに焦点を当てている。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Human-centric Scene Understanding for 3D Large-scale Scenarios [52.12727427303162]
本稿では,HuCenLifeという,人間中心のシーン理解のための大規模マルチモーダルデータセットを提案する。
私たちのHuCenLifeは、セグメンテーション、検出、アクション認識など、多くの3D認識タスクに役立ちます。
論文 参考訳(メタデータ) (2023-07-26T08:40:46Z) - The Psychophysics of Human Three-Dimensional Active Visuospatial
Problem-Solving [12.805267089186533]
2つの物理的3Dオブジェクトは視覚的に同じか?
人間はこの仕事を訓練なしで非常に得意であり、平均精度は93.82%である。
多くの治験後, 学習効果は認められなかったが, 応答時間, 固定回数, 頭部運動量に何らかの効果が認められた。
論文 参考訳(メタデータ) (2023-06-19T19:36:42Z) - Video-based Human Action Recognition using Deep Learning: A Review [4.976815699476327]
人間の行動認識はコンピュータビジョンにおける重要な応用分野である。
ディープラーニングはコンピュータビジョンコミュニティによって特に注目されている。
本稿では,深層学習技術を用いた映像解析による行動認識の現状について概説する。
論文 参考訳(メタデータ) (2022-08-07T17:12:12Z) - Embodied vision for learning object representations [4.211128681972148]
幼児の視覚的統計は、親しみやすい環境と新しい環境の両方において、物体認識の精度を向上させる。
この効果は、背景から抽出した特徴の減少、画像中の大きな特徴に対するニューラルネットワークバイアス、新奇な背景領域と慣れ親しんだ背景領域との類似性の向上によるものである、と我々は主張する。
論文 参考訳(メタデータ) (2022-05-12T16:36:27Z) - Egocentric Activity Recognition and Localization on a 3D Map [94.30708825896727]
我々は,エゴセントリックなビデオから既知の3Dマップ上で,モバイルユーザの行動を共同で認識し,位置決めする問題に対処する。
本モデルでは,環境の階層的容積表現(HVR)とエゴセントリックなビデオの入力を取得し,その3次元動作位置を潜在変数として推定し,その潜在的な位置を囲む映像および文脈的手がかりに基づいて動作を認識する。
論文 参考訳(メタデータ) (2021-05-20T06:58:15Z) - What can human minimal videos tell us about dynamic recognition models? [14.201816626446888]
人間の視覚オブジェクトとその部分は、純粋に空間的または純粋に時間的情報から視覚的に認識することができる。
物体と動作の視覚認識は,空間的および運動的手がかりを効率的に組み合わせて実現できることを示す。
論文 参考訳(メタデータ) (2021-04-19T16:53:25Z) - A Grid-based Representation for Human Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、コンピュータビジョンにおける基本的な研究課題である。
本稿では,行動の最も識別性の高い外観情報を効率的に符号化する行動認識手法を提案する。
提案手法は, モデルが人間の行動を正確に認識できることを示すために, いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-10-17T18:25:00Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。