論文の概要: It's all about you: Personalized in-Vehicle Gesture Recognition with a
Time-of-Flight Camera
- arxiv url: http://arxiv.org/abs/2310.01659v1
- Date: Mon, 2 Oct 2023 21:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:37:58.257462
- Title: It's all about you: Personalized in-Vehicle Gesture Recognition with a
Time-of-Flight Camera
- Title(参考訳): タイム・オブ・フライカメラで車内ジェスチャー認識をパーソナライズ
- Authors: Amr Gomaa, Guillermo Reyes, Michael Feld
- Abstract要約: CNNLSTMモデルのトレーニングをパーソナライズするためのモデル適応手法を提案する。
本手法は運転時の動的手動作認識の分野に寄与する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant advances in gesture recognition technology, recognizing
gestures in a driving environment remains challenging due to limited and costly
data and its dynamic, ever-changing nature. In this work, we propose a
model-adaptation approach to personalize the training of a CNNLSTM model and
improve recognition accuracy while reducing data requirements. Our approach
contributes to the field of dynamic hand gesture recognition while driving by
providing a more efficient and accurate method that can be customized for
individual users, ultimately enhancing the safety and convenience of in-vehicle
interactions, as well as driver's experience and system trust. We incorporate
hardware enhancement using a time-of-flight camera and algorithmic enhancement
through data augmentation, personalized adaptation, and incremental learning
techniques. We evaluate the performance of our approach in terms of recognition
accuracy, achieving up to 90\%, and show the effectiveness of personalized
adaptation and incremental learning for a user-centered design.
- Abstract(参考訳): ジェスチャー認識技術の進歩にもかかわらず、運転環境におけるジェスチャーの認識は、限られた費用がかかるデータと、その動的で絶え間なく変化する性質のために困難である。
本研究では,CNNLSTMモデルのトレーニングをパーソナライズし,データ要求を低減しつつ認識精度を向上させるモデル適応手法を提案する。
本手法は,運転時の動的手振り認識の分野に寄与し,個々の利用者向けにカスタマイズ可能なより効率的で正確な方法を提供し,最終的には車内インタラクションの安全性と利便性,さらには運転経験やシステム信頼を高める。
我々は,飛行時間カメラを用いたハードウェア強化と,データ拡張,パーソナライズされた適応,インクリメンタル学習技術によるアルゴリズム強化を組み込んだ。
本手法の性能を認識精度の観点から評価し,最大90\%まで達成し,ユーザ中心設計におけるパーソナライズ適応とインクリメンタル学習の有効性を示す。
関連論文リスト
- Benchmarking Adaptive Intelligence and Computer Vision on Human-Robot Collaboration [0.0]
ヒューマンロボットコラボレーション(HRC)は、センサー、デジタル双生児、協調ロボット(コボット)、意図認識モデルを用いて、効率的な製造プロセスを持つ産業4.0において不可欠である。
本稿では,適応知能と自己ラベルを統合して,HRCシステムにおける意図認識のレジリエンスを向上させることにより,概念の漂流に対処する。
論文 参考訳(メタデータ) (2024-09-30T01:25:48Z) - UniLearn: Enhancing Dynamic Facial Expression Recognition through Unified Pre-Training and Fine-Tuning on Images and Videos [83.48170683672427]
UniLearnは、静的表情認識データを統合してDFERタスクを強化する統一学習パラダイムである。
UniLearnは、FERV39K、MAFW、DFEWのベンチマークにおいて、それぞれ53.65%、58.44%、76.68%の重み付き平均リコール(WAR)で常に最先端のパフォーマンスを保っている。
論文 参考訳(メタデータ) (2024-09-10T01:57:57Z) - Decoupled Prompt-Adapter Tuning for Continual Activity Recognition [6.224769485481242]
アクション認識技術は、監視システムを通じたセキュリティ向上、医療における患者監視の改善、製造業や補助技術といった分野におけるシームレスな人間とAIのコラボレーションを促進する上で、重要な役割を担っている。
Decoupled Prompt-Adapter Tuning (DPAT) は、空間的時間的情報を取得するためのアダプタを統合する新しいフレームワークであり、デカップリングトレーニング戦略を通じて破滅的な忘れを軽減するための学習可能なプロンプトである。
DPATは、いくつかの挑戦的なアクション認識ベンチマークにおいて、常に最先端のパフォーマンスを達成し、連続的なアクション認識の領域における我々のモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-20T08:56:04Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - Agile gesture recognition for low-power applications: customisation for generalisation [41.728933551492275]
自動手ジェスチャー認識は、長い間AIコミュニティの焦点だった。
低消費電力センサデバイスで動作するジェスチャー認識技術への需要が高まっている。
本研究では,適応的およびアジャイル的誤り訂正を用いたパターン認識システムのための新しい手法を提示する。
論文 参考訳(メタデータ) (2024-03-12T19:34:18Z) - Towards Open-World Gesture Recognition [19.019579924491847]
手首輪デバイスに基づくジェスチャー認識などのジェスチャー認識を含む実世界のアプリケーションでは、データ分布は時間とともに変化する可能性がある。
本稿では,機械学習モデルが新しいタスクに適応できるようにするために,継続学習の利用を提案する。
オープンワールドな手首のジェスチャー認識プロセスの開発を促進するための設計ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-20T06:45:16Z) - Dynamic Hand Gesture-Featured Human Motor Adaptation in Tool Delivery
using Voice Recognition [5.13619372598999]
本稿では,革新的なロボット協調フレームワークを提案する。
手の動きや動的動きの認識、音声認識、切り替え可能な制御適応戦略をシームレスに統合する。
ハンドジェスチャ認識における優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-09-20T14:51:09Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - An automatic differentiation system for the age of differential privacy [65.35244647521989]
Tritiumは、微分プライベート(DP)機械学習(ML)のための自動微分ベース感度分析フレームワークである
我々は、微分プライベート(DP)機械学習(ML)のための自動微分に基づく感度分析フレームワークTritiumを紹介する。
論文 参考訳(メタデータ) (2021-09-22T08:07:42Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。