論文の概要: Vision and Inertial Sensing Fusion for Human Action Recognition : A
Review
- arxiv url: http://arxiv.org/abs/2008.00380v1
- Date: Sun, 2 Aug 2020 02:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:39:26.557182
- Title: Vision and Inertial Sensing Fusion for Human Action Recognition : A
Review
- Title(参考訳): 人間の行動認識のためのビジョンと慣性センシングフュージョン : レビュー
- Authors: Sharmin Majumder, Nasser Kehtarnavaz
- Abstract要約: 人間の行動認識は、ビデオ監視、人間のコンピュータインタラクション、補助的な生活、ゲームなど、多くのアプリケーションで使われている。
多くの論文で、視覚と慣性感覚の融合は、それぞれの知覚モダリティが個別に使用される状況と比較して、認識精度を向上させることが示されている。
本稿では,人間の行動認識を行うために,融合フレームワーク内で視覚と慣性センシングを同時に使用する論文について調査する。
- 参考スコア(独自算出の注目度): 2.0813318162800702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human action recognition is used in many applications such as video
surveillance, human computer interaction, assistive living, and gaming. Many
papers have appeared in the literature showing that the fusion of vision and
inertial sensing improves recognition accuracies compared to the situations
when each sensing modality is used individually. This paper provides a survey
of the papers in which vision and inertial sensing are used simultaneously
within a fusion framework in order to perform human action recognition. The
surveyed papers are categorized in terms of fusion approaches, features,
classifiers, as well as multimodality datasets considered. Challenges as well
as possible future directions are also stated for deploying the fusion of these
two sensing modalities under realistic conditions.
- Abstract(参考訳): 人間の行動認識は、ビデオ監視、人間のコンピュータインタラクション、補助生活、ゲームなど、多くのアプリケーションで使われている。
視覚と慣性センシングの融合は、各センシングモダリティが個別に使用される状況と比較して認識能力を向上させることを示す多くの論文が文献に載っている。
本稿では,人間の行動認識を行うために,視覚と慣性センシングが融合フレームワーク内で同時に使用される論文の調査を行う。
調査した論文は、融合アプローチ、特徴、分類器、および考慮されたマルチモダリティデータセットの観点で分類される。
現実的な条件下でこれらの2つのセンシングモダリティの融合を展開するための課題と将来の方向性も述べられている。
関連論文リスト
- Survey on Hand Gesture Recognition from Visual Input [2.1591725778863555]
ハンドジェスチャ認識は人間とコンピュータの相互作用の需要が増大する中で重要な研究領域となっている。
最近の研究、利用可能なソリューション、ベンチマークデータセットを包括的にカバーする調査はほとんどない。
本研究は,様々なカメラ入力データから手の動きと3次元手ポーズ認識の最新の進歩を調べることで,このギャップに対処する。
論文 参考訳(メタデータ) (2025-01-21T09:23:22Z) - TriMod Fusion for Multimodal Named Entity Recognition in Social Media [0.0]
本稿では, テキスト, ビジュアル, ハッシュタグ機能(TriMod)を統合した新しい手法を提案する。
我々は,既存の最先端手法よりもアプローチの優位性を実証し,精度,リコール,F1スコアの大幅な向上を実現した。
論文 参考訳(メタデータ) (2025-01-14T17:29:41Z) - When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Explicit Interaction for Fusion-Based Place Recognition [23.894557966812727]
本稿では,2つのモードの明示的な相互作用を実現するために,EINetと呼ばれる新しい融合型ネットワークを提案する。
我々はnuScenesデータセットに基づく位置認識タスクのための新しいベンチマークを開発する。
我々のEINetは、最先端のフュージョンベースの位置認識アプローチと比較して、認識性能とソリッド・ジェネライゼーション能力に優れています。
論文 参考訳(メタデータ) (2024-02-27T07:19:50Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning [2.678461526933908]
我々は,人間の姿勢を,より親しみやすい言葉で表現する質的空間推論手法を導入する。
本稿では,2つのレベルでのシンボル表現の導出と,その予備的利用について述べる。
論文 参考訳(メタデータ) (2022-10-17T12:22:13Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Recent Progress in Appearance-based Action Recognition [73.6405863243707]
アクション認識は、ビデオ内の様々な人間の行動を特定するタスクである。
最近の外見に基づく手法は、正確な行動認識に向けて有望な進歩を遂げている。
論文 参考訳(メタデータ) (2020-11-25T10:18:12Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。