論文の概要: A multimodal gesture recognition dataset for desktop human-computer
interaction
- arxiv url: http://arxiv.org/abs/2401.03828v1
- Date: Mon, 8 Jan 2024 11:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:43:43.539310
- Title: A multimodal gesture recognition dataset for desktop human-computer
interaction
- Title(参考訳): デスクトップ・コンピュータインタラクションのためのマルチモーダルジェスチャー認識データセット
- Authors: Qi Wang, Fengchao Zhu, Guangming Zhu, Liang Zhang, Ning Li, Eryang Gao
- Abstract要約: GR4DHCIは7000以上のジェスチャーサンプルと382,447フレームで構成されている。
GR4DHCIは7000以上のジェスチャーサンプルと382,447フレームで構成されている。
また、27の異なる手の位置をデータセットに組み込むことで、デスクトップインタラクション中の手の位置のばらつきにも対処する。
- 参考スコア(独自算出の注目度): 10.053600460554234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gesture recognition is an indispensable component of natural and efficient
human-computer interaction technology, particularly in desktop-level
applications, where it can significantly enhance people's productivity.
However, the current gesture recognition community lacks a suitable
desktop-level (top-view perspective) dataset for lightweight gesture capture
devices. In this study, we have established a dataset named GR4DHCI. What
distinguishes this dataset is its inherent naturalness, intuitive
characteristics, and diversity. Its primary purpose is to serve as a valuable
resource for the development of desktop-level portable applications. GR4DHCI
comprises over 7,000 gesture samples and a total of 382,447 frames for both
Stereo IR and skeletal modalities. We also address the variances in hand
positioning during desktop interactions by incorporating 27 different hand
positions into the dataset. Building upon the GR4DHCI dataset, we conducted a
series of experimental studies, the results of which demonstrate that the
fine-grained classification blocks proposed in this paper can enhance the
model's recognition accuracy. Our dataset and experimental findings presented
in this paper are anticipated to propel advancements in desktop-level gesture
recognition research.
- Abstract(参考訳): ジェスチャー認識は、特にデスクトップレベルのアプリケーションにおいて、自然で効率的なヒューマンコンピュータインタラクション技術において必須の要素である。
しかし、現在のジェスチャー認識コミュニティには、軽量なジェスチャーキャプチャデバイスに適したデスクトップレベル(トップ視点)データセットがない。
本研究ではGR4DHCIというデータセットを構築した。
このデータセットを区別するのは、その固有の自然性、直感的な特徴、多様性である。
その主な目的は、デスクトップレベルのポータブルアプリケーションを開発するための貴重なリソースとして機能することである。
gr4dhciは7,000以上のジェスチャサンプルと合計382,447フレームからなる。
また,27の異なる手の位置をデータセットに組み込むことで,デスクトップインタラクション中の手の位置のばらつきを解消する。
GR4DHCIデータセットを用いて一連の実験を行い,本論文で提案した細粒度分類ブロックがモデルの認識精度を向上させることを実証した。
本論文で提示されたデータセットと実験結果は,デスクトップレベルのジェスチャ認識研究の進展を促進することが期待されている。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - Advancing Location-Invariant and Device-Agnostic Motion Activity
Recognition on Wearable Devices [6.557453686071467]
センサ位置をまたいだ運動モデルの一般化可能性に関する総合的な評価を行う。
我々の分析は、この課題を強調し、位置不変モデルを構築する上で重要な位置を特定する。
本稿では,センサ配置に関係なく,デバイス上での動作モデルを単一モデルから91.41%のフレームレベルF1スコアに展開する。
論文 参考訳(メタデータ) (2024-02-06T05:10:00Z) - Sketch Input Method Editor: A Comprehensive Dataset and Methodology for Systematic Input Recognition [14.667745062352148]
本研究の目的は,プロフェッショナルなC4Iシステム用に設計されたSketch Input Method Editor(SketchIME)を作成することである。
このシステム内では、スケッチは標準化されたシンボルを推奨する低忠実なプロトタイプとして利用される。
少数ショットのドメイン適応とクラス増分学習を取り入れることで、ネットワークの新規ユーザへの適応能力は大幅に向上する。
論文 参考訳(メタデータ) (2023-11-30T05:05:38Z) - The Impact of Different Backbone Architecture on Autonomous Vehicle
Dataset [120.08736654413637]
バックボーンアーキテクチャによって抽出された特徴の質は、全体的な検出性能に大きな影響を与える可能性がある。
本研究は,KITTI,NuScenes,BDDの3つの自律走行車データセットを評価し,対象検出タスクにおける異なるバックボーンアーキテクチャの性能を比較した。
論文 参考訳(メタデータ) (2023-09-15T17:32:15Z) - Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots [0.0]
本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
認識されたジェスチャーは、朝食の食事を準備する共同作業でロボットを遠隔操作するために使用される。
論文 参考訳(メタデータ) (2023-04-13T18:49:08Z) - DyGait: Exploiting Dynamic Representations for High-performance Gait
Recognition [35.642868929840034]
歩行認識は、歩行パターンを通して人間の身元を認識する生体計測技術である。
我々は動的特徴の抽出に焦点をあて,DyGaitという新しい高性能なフレームワークを提案する。
我々のネットワークは、GREWデータセットで71.4%、Gait3Dデータセットで66.3%、CAIA-Bデータセットで98.4%、OU-Mデータセットで98.3%の平均ランク1の精度を達成した。
論文 参考訳(メタデータ) (2023-03-27T07:36:47Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition [71.91734471596433]
オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
論文 参考訳(メタデータ) (2022-12-02T18:19:36Z) - Gait Recognition in the Wild: A Large-scale Benchmark and NAS-based
Baseline [95.88825497452716]
歩行ベンチマークにより、研究コミュニティは高性能歩行認識システムの訓練と評価を行うことができる。
GREWは、野生における歩行認識のための最初の大規模データセットである。
SPOSGaitはNASベースの最初の歩行認識モデルである。
論文 参考訳(メタデータ) (2022-05-05T14:57:39Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Force myography benchmark data for hand gesture recognition and transfer
learning [5.110894308882439]
我々は、この分野の進歩に寄与し、18のユニークなジェスチャーをカバーした20人の人から市販のセンサーを用いて、ベンチマークデータセットを収集する。
このようなデータに対する1つのユースケースを示し、転送学習を利用して、他の複数の人物のデータを組み込むことにより、ジェスチャー認識の精度を向上させる方法を示す。
論文 参考訳(メタデータ) (2020-07-29T15:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。