論文の概要: Towards Open-World Gesture Recognition
- arxiv url: http://arxiv.org/abs/2401.11144v1
- Date: Sat, 20 Jan 2024 06:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:41:14.625931
- Title: Towards Open-World Gesture Recognition
- Title(参考訳): オープンワールドジェスチャ認識に向けて
- Authors: Junxiao Shen, Matthias De Lange, Xuhai "Orson" Xu, Enmin Zhou, Ran
Tan, Naveen Suda, Maciej Lazarewicz, Per Ola Kristensson, Amy Karlson, Evan
Strasnick
- Abstract要約: オープンワールドジェスチャ認識(OWGR)として新しいデータパターンが出現する新しいタスクに認識モデルを適用するという問題を定式化する。
本稿では,様々なパラメータを持つ大規模データセットのオフライン解析を可能にする設計工学的手法を提案する。
オープンワールド手首のジェスチャー認識プロセスの開発を促進するための設計ガイドラインが提供される。
- 参考スコア(独自算出の注目度): 19.65242189269589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Static machine learning methods in gesture recognition assume that training
and test data come from the same underlying distribution. However, in
real-world applications involving gesture recognition on wrist-worn devices,
data distribution may change over time. We formulate this problem of adapting
recognition models to new tasks, where new data patterns emerge, as open-world
gesture recognition (OWGR). We propose leveraging continual learning to make
machine learning models adaptive to new tasks without degrading performance on
previously learned tasks. However, the exploration of parameters for questions
around when and how to train and deploy recognition models requires
time-consuming user studies and is sometimes impractical. To address this
challenge, we propose a design engineering approach that enables offline
analysis on a collected large-scale dataset with various parameters and
compares different continual learning methods. Finally, design guidelines are
provided to enhance the development of an open-world wrist-worn gesture
recognition process.
- Abstract(参考訳): ジェスチャー認識における静的機械学習手法は、トレーニングとテストデータが同じ基礎となる分布から来ていると仮定する。
しかし、手首のデバイス上でのジェスチャー認識を含む現実世界のアプリケーションでは、データ分布は時間とともに変化する可能性がある。
我々は,オープンワールドジェスチャ認識(owgr)として,新たなデータパターンが出現する新しいタスクに認識モデルを適用する問題を定式化する。
従来学習したタスクのパフォーマンスを低下させることなく,新しいタスクに適応する機械学習モデルを構築するために,連続学習を活用することを提案する。
しかしながら、認識モデルのトレーニングとデプロイの方法に関する疑問に対するパラメータの探索には、時間を要するユーザ研究が必要であり、時には実用的でない場合もある。
この課題に対処するために,収集した大規模データセットのオフライン解析をさまざまなパラメータで実現し,異なる連続学習手法を比較する設計工学的手法を提案する。
最後に、オープンワールド手首のジェスチャー認識プロセスの開発を促進するための設計ガイドラインを提供する。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - Deep self-supervised learning with visualisation for automatic gesture recognition [1.6647755388646919]
ジェスチャーは非言語コミュニケーションの重要な手段であり、視覚的モダリティにより、人間が対話中に情報を伝達し、人々や人間と機械の相互作用を促進する。
本研究では, 深層学習を用いた手指の認識方法として, 教師あり学習法, 自己教師あり手法, 3次元移動骨格データに適用した可視化技術について検討する。
論文 参考訳(メタデータ) (2024-06-18T09:44:55Z) - Continuous Learning Based Novelty Aware Emotion Recognition System [0.0]
人間の感情認識における現在の研究は、新奇性を考慮せずに厳格な規則によって統治される伝統的な閉学習アプローチに従っている。
本研究では,自動感情認識タスクにおける新規性に対処する継続的学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-14T20:34:07Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Gesture Similarity Analysis on Event Data Using a Hybrid Guided
Variational Auto Encoder [3.1148846501645084]
本研究では,背景を自然分解し,時間分解能の高いジェスチャーを解析するニューロモーフィックジェスチャー解析システムを提案する。
以上の結果から,VAEが学習した特徴は,新しいジェスチャーのクラスタリングと擬似ラベル付けが可能な類似度尺度を提供することがわかった。
論文 参考訳(メタデータ) (2021-03-31T23:58:34Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - A System for Real-Time Interactive Analysis of Deep Learning Training [66.06880335222529]
現在利用可能なシステムは、トレーニングプロセスが始まる前に指定しなければならないログデータのみを監視することに限定されている。
本稿では,リアルタイム情報を生成するライブプロセス上で対話型クエリを実行可能にするシステムを提案する。
論文 参考訳(メタデータ) (2020-01-05T11:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。