論文の概要: Interpreting Hand gestures using Object Detection and Digits Classification
- arxiv url: http://arxiv.org/abs/2407.10902v1
- Date: Mon, 15 Jul 2024 16:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 14:10:37.706439
- Title: Interpreting Hand gestures using Object Detection and Digits Classification
- Title(参考訳): オブジェクト検出とディジット分類を用いた手動作の解釈
- Authors: Sangeetha K, Balaji VS, Kamalesh P, Anirudh Ganapathy PS,
- Abstract要約: 本研究の目的は,数字を表す手振りを正確に認識し,分類できる堅牢なシステムを開発することである。
提案手法では、手動画像のデータセットの収集、画像の事前処理と拡張、関連する特徴の抽出、機械学習モデルのトレーニングなどを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Hand gestures have evolved into a natural and intuitive means of engaging with technology. The objective of this research is to develop a robust system that can accurately recognize and classify hand gestures representing numbers. The proposed approach involves collecting a dataset of hand gesture images, preprocessing and enhancing the images, extracting relevant features, and training a machine learning model. The advancement of computer vision technology and object detection techniques, in conjunction with OpenCV's capability to analyze and comprehend hand gestures, presents a chance to transform the identification of numerical digits and its potential applications. The advancement of computer vision technology and object identification technologies, along with OpenCV's capacity to analyze and interpret hand gestures, has the potential to revolutionize human interaction, boosting people's access to information, education, and employment opportunities. Keywords: Computer Vision, Machine learning, Deep Learning, Neural Networks
- Abstract(参考訳): 手のジェスチャーは、自然で直感的なテクノロジーへの関わり方へと進化してきた。
本研究の目的は,数字を表す手振りを正確に認識・分類できる頑健なシステムを開発することである。
提案手法では、手動画像のデータセットの収集、画像の事前処理と拡張、関連する特徴の抽出、機械学習モデルのトレーニングなどを行う。
コンピュータビジョン技術とオブジェクト検出技術の進歩は、手の動きを分析し、理解するOpenCVの能力と相まって、数値桁の識別とその潜在的な応用を変換する機会を提供する。
コンピュータビジョン技術と物体識別技術の進歩と、手の動きを分析し解釈するOpenCVの能力は、人間のインタラクションに革命をもたらす可能性があり、情報、教育、雇用機会への人々のアクセスを促進する。
キーワード:コンピュータビジョン、機械学習、ディープラーニング、ニューラルネットワーク
関連論文リスト
- Integration and Performance Analysis of Artificial Intelligence and
Computer Vision Based on Deep Learning Algorithms [5.734290974917728]
本稿では,ディープラーニングとコンピュータビジョン技術の統合による応用効果の分析に焦点をあてる。
ディープラーニングは階層型ニューラルネットワークを構築することで歴史的なブレークスルーを実現し、エンドツーエンドの機能学習と画像の意味的理解を可能にする。
コンピュータビジョンの分野で成功した経験は、ディープラーニングアルゴリズムのトレーニングに強力なサポートを提供する。
論文 参考訳(メタデータ) (2023-12-20T09:37:06Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Exploring Human Crowd Patterns and Categorization in Video Footage for
Enhanced Security and Surveillance using Computer Vision and Machine Learning [0.0]
本稿では,映像中の動きを追跡する新しいアプローチとして,コンピュータビジョンのセキュリティと監視の可能性について考察する。
動作をArcs, Lanes, Converging/Diverging, Random/Block動作に分類することにより、異なる光フロー技術、CNNモデル、機械学習モデルについて検討する。
その結果、異常検出モデルのトレーニング、動きに基づく行動洞察の提供、シーンの理解の向上が可能となった。
論文 参考訳(メタデータ) (2023-08-26T16:09:20Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Transfer: Cross Modality Knowledge Transfer using Adversarial Networks
-- A Study on Gesture Recognition [7.742297876120562]
本稿では,ソースとターゲット技術間の知識伝達のための汎用フレームワークを提案する。
TransferFERは手ジェスチャーの言語ベースの表現を使用して、概念の時間的組み合わせをキャプチャする。
ここでは,3つのシナリオにおけるTransferの使用例を示す。
論文 参考訳(メタデータ) (2023-06-26T23:47:59Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Object recognition through pose and shape estimation [0.0]
コンピュータービジョンは、機械やコンピューターが人間のように見えるのを助ける。
ジェスチャー認識と運動認識はコンピュータビジョン研究の現在領域である。
論文 参考訳(メタデータ) (2020-06-23T09:55:40Z) - A Developmental Neuro-Robotics Approach for Boosting the Recognition of
Handwritten Digits [91.3755431537592]
近年のエビデンスでは、子どもの体現戦略をシミュレーションすることで、マシンインテリジェンスも改善できることが示されている。
本稿では,発達神経ロボティクスの文脈における畳み込みニューラルネットワークモデルへの具体的戦略の適用について検討する。
論文 参考訳(メタデータ) (2020-03-23T14:55:00Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。