論文の概要: Extraction Of Cumulative Blobs From Dynamic Gestures
- arxiv url: http://arxiv.org/abs/2501.04002v1
- Date: Tue, 07 Jan 2025 18:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:18.553418
- Title: Extraction Of Cumulative Blobs From Dynamic Gestures
- Title(参考訳): 動的ジェスチャーからの累積ブロブの抽出
- Authors: Rishabh Naulakha, Shubham Gaur, Dhairya Lodha, Mehek Tulsyan, Utsav Kotecha,
- Abstract要約: ジェスチャー認識は、コンピュータが人間の動きをコマンドとして解釈できるCV技術に基づいている。
モーションキャプチャー用のカメラとして、簡単なナイトビジョンカメラが使用できる。
カメラからのビデオストリームは、OpenCVモジュールを実行するPythonプログラムを備えたRaspberry Piに入力される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Gesture recognition is a perceptual user interface, which is based on CV technology that allows the computer to interpret human motions as commands, allowing users to communicate with a computer without the use of hands, thus making the mouse and keyboard superfluous. Gesture recognition's main weakness is a light condition because gesture control is based on computer vision, which heavily relies on cameras. These cameras are used to interpret gestures in 2D and 3D, so the extracted information can vary depending on the source of light. The limitation of the system cannot work in a dark environment. A simple night vision camera can be used as our camera for motion capture as they also blast out infrared light which is not visible to humans but can be clearly seen with a camera that has no infrared filter this majorly overcomes the limitation of systems which cannot work in a dark environment. So, the video stream from the camera is fed into a Raspberry Pi which has a Python program running OpenCV module which is used for detecting, isolating and tracking the path of dynamic gesture, then we use an algorithm of machine learning to recognize the pattern drawn and accordingly control the GPIOs of the raspberry pi to perform some activities.
- Abstract(参考訳): ジェスチャー認識(英: Gesture Recognition)は、コンピュータが人の動きをコマンドとして解釈できるCV技術に基づく知覚的ユーザインタフェースである。
ジェスチャー認識の主な弱点は、ジェスチャー制御がカメラに大きく依存するコンピュータビジョンに基づいているため、光条件である。
これらのカメラはジェスチャーを2Dおよび3Dで解釈するために使用されるため、抽出された情報は光源によって異なる。
システムの制限はダーク環境では機能しない。
簡単なナイトビジョンカメラは、人間には見えないが、赤外線フィルターのないカメラではっきりと見ることができ、暗い環境では動作できないシステムの制限を大幅に克服できるため、モーションキャプチャーのカメラとして使用することができる。
そこで,カメラからの映像ストリームは,動的ジェスチャーの経路を検出し,分離し,追跡する,OpenCVモジュールを実行するPythonプログラムを備えたRaspberry Piに入力され,機械学習アルゴリズムを用いて描画されたパターンを認識し,それに従ってラズベリーパイのGPIOを制御し,いくつかの動作を行う。
関連論文リスト
- Turn-by-Turn Indoor Navigation for the Visually Impaired [0.0]
室内環境のナビゲーションは視覚障害者にとって重要な課題である。
本稿では,カメラを搭載したスマートフォンのみを用いた建物内部のターンバイターンナビゲーションシステムを提案する。
複雑な屋内空間を利用者に正確に案内するシステムの有効性について予備評価を行った。
論文 参考訳(メタデータ) (2024-10-25T20:16:38Z) - Helpful DoggyBot: Open-World Object Fetching using Legged Robots and Vision-Language Models [63.89598561397856]
室内環境における四足歩行操作のためのシステムを提案する。
オブジェクト操作にはフロントマウントのグリップを使用しており、アジャイルスキルにエゴセントリックな深さを使ってシミュレーションでトレーニングされた低レベルのコントローラである。
実世界のデータ収集やトレーニングを行なわずに、2つの目に見えない環境でシステムを評価する。
論文 参考訳(メタデータ) (2024-09-30T20:58:38Z) - ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - PathFinder: Attention-Driven Dynamic Non-Line-of-Sight Tracking with a Mobile Robot [3.387892563308912]
注目型ニューラルネットワークを用いてLOS(Line-of-sight)ビデオにおける動的逐次フレームのシーケンスを処理する新しい手法を提案する。
我々は,映像撮影のためのドローンによる現場撮影のアプローチを検証し,ダイナミックキャプチャ環境での低コストなNLOSイメージングを実証した。
論文 参考訳(メタデータ) (2024-04-07T17:31:53Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - A real-time algorithm for human action recognition in RGB and thermal
video [1.5749416770494706]
本稿では,RGBカメラとサーマルカメラの両方を対象とした深層学習に基づく人間の行動認識アルゴリズムを提案する。
NVIDIA GPUを搭載したノートブック上で、人間を検出して追跡し、4つの基本的なアクションをリアルタイムで認識することができる。
論文 参考訳(メタデータ) (2023-04-04T06:44:13Z) - PRNU Based Source Camera Identification for Webcam and Smartphone Videos [137.6408511310322]
このコミュニケーションは、Webカメラ/スマートフォンビデオのソースカメラ(SCI: Source Camera Identification)を特定するためにカメラセンサ指紋を使用する画像法医学の応用に関するものである。
論文 参考訳(メタデータ) (2022-01-27T18:57:14Z) - AirPose: Multi-View Fusion Network for Aerial 3D Human Pose and Shape
Estimation [51.17610485589701]
本研究では,非構造屋外環境のための新しいマーカーレス3次元モーションキャプチャ(MoCap)システムを提案する。
AirPoseは複数の無人飛行カメラで撮影された画像を使って人間のポーズと形状を推定する。
AirPose自体は、事前校正に頼らずに、人のカメラを校正する。
論文 参考訳(メタデータ) (2022-01-20T09:46:20Z) - MotionInput v2.0 supporting DirectX: A modular library of open-source
gesture-based machine learning and computer vision methods for interacting
and controlling existing software with a webcam [11.120698968989108]
MotionInput v2.0は、既存のアプリケーションやゲームの入力操作に人間の動きのジェスチャーをマッピングする。
3つのユースケース領域は、創造性ソフトウェア、オフィスおよび臨床ソフトウェア、ゲームソフトウェアというモジュールの開発を支援した。
論文 参考訳(メタデータ) (2021-08-10T08:23:21Z) - Learning Neural Representation of Camera Pose with Matrix Representation
of Pose Shift via View Synthesis [105.37072293076767]
カメラポーズを効果的に表現する方法は、3Dコンピュータビジョンの重要な問題です。
カメラポーズと3Dシーンのニューラル表現を学習するためのアプローチを提案する。
合成および実データに対する広範な実験を行う。
論文 参考訳(メタデータ) (2021-04-04T00:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。