論文の概要: Gestop : Customizable Gesture Control of Computer Systems
- arxiv url: http://arxiv.org/abs/2010.13197v1
- Date: Sun, 25 Oct 2020 19:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 05:07:44.738903
- Title: Gestop : Customizable Gesture Control of Computer Systems
- Title(参考訳): Gestop : コンピュータシステムのカスタマイズ可能なジェスチャー制御
- Authors: Sriram Krishna, Nishant Sinha
- Abstract要約: Gestopはデモからジェスチャーを検出することを学習するフレームワークで、エンドユーザがカスタマイズできる。
ユーザはジェスチャーを使って、RGBのカメラしか持たないコンピュータとリアルタイムで対話できる。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The established way of interfacing with most computer systems is a mouse and
keyboard. Hand gestures are an intuitive and effective touchless way to
interact with computer systems. However, hand gesture based systems have seen
low adoption among end-users primarily due to numerous technical hurdles in
detecting in-air gestures accurately. This paper presents Gestop, a framework
developed to bridge this gap. The framework learns to detect gestures from
demonstrations, is customizable by end-users and enables users to interact in
real-time with computers having only RGB cameras, using gestures.
- Abstract(参考訳): ほとんどのコンピュータシステムとのインタフェースの確立された方法は、マウスとキーボードである。
ハンドジェスチャは、コンピュータシステムと対話するための直感的で効果的なタッチレス方式である。
しかし, 手のジェスチャーに基づくシステムは, 空気中のジェスチャーを正確に検出する上で, 数多くの技術的ハードルにより, エンドユーザーの間では採用されていない。
本稿では,このギャップを埋めるために開発されたフレームワークであるgestopを提案する。
このフレームワークはデモからジェスチャーを検出することを学習し、エンドユーザーによってカスタマイズ可能で、ユーザはジェスチャーを使用して、RGBカメラのみを持つコンピュータとリアルタイムで対話することができる。
関連論文リスト
- Computer Vision-Driven Gesture Recognition: Toward Natural and Intuitive Human-Computer [21.70275919660522]
本研究では,コンピュータビジョンに基づく自然なジェスチャー認識の人間-コンピュータインタラクションへの応用について検討する。
手のひらと各指関節を接続することにより、手の動的かつ静的なジェスチャーモデルを形成する。
実験により,様々なジェスチャーを効果的に認識し,高い認識精度とリアルタイム応答能力を維持できることが示唆された。
論文 参考訳(メタデータ) (2024-12-24T10:13:20Z) - ConvoFusion: Multi-Modal Conversational Diffusion for Co-Speech Gesture Synthesis [50.69464138626748]
マルチモーダルなジェスチャー合成のための拡散に基づくアプローチであるConvoFusionを提案する。
提案手法は,条件の異なる条件が与える影響をユーザが調節できる2つの誘導目標を提案する。
本手法は,モノログジェスチャを生成するか,会話ジェスチャを生成するかの訓練が可能である。
論文 参考訳(メタデータ) (2024-03-26T17:59:52Z) - On-device Real-time Custom Hand Gesture Recognition [5.3581349005036465]
ユーザが自分のジェスチャー認識パイプラインを簡単にカスタマイズおよびデプロイできる、ユーザフレンドリーなフレームワークを提案する。
我々のフレームワークは、カスタムジェスチャー認識のための微調整が可能な、トレーニング済みのシングルハンド埋め込みモデルを提供する。
また、カスタムジェスチャー認識モデルのトレーニングとデプロイのためのローコードソリューションも提供しています。
論文 参考訳(メタデータ) (2023-09-19T18:05:14Z) - From Pixels to UI Actions: Learning to Follow Instructions via Graphical
User Interfaces [66.85108822706489]
本稿では,人間がよく使う概念的インタフェースを用いて,デジタル世界と対話するエージェントを作成することに焦点を当てる。
このようなエージェントは、タスクに従うGUIベースの命令のMiniWob++ベンチマークで、人間のクラウドワーカーより優れています。
論文 参考訳(メタデータ) (2023-05-31T23:39:18Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - InternGPT: Solving Vision-Centric Tasks by Interacting with ChatGPT
Beyond Language [82.92236977726655]
InternGPTは textbfinteraction, textbfnonverbal, textbfchatbot の略である。
InternGPT(iGPT)という対話型視覚フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T17:58:34Z) - GesSure -- A Robust Face-Authentication enabled Dynamic Gesture
Recognition GUI Application [1.3649494534428745]
本稿では,頑健で顔認証が可能なジェスチャー認識システムを設計することを目的とする。
タスク操作に意味があり、関連するジェスチャーを使用します。
私たちのプロトタイプは、保存、印刷、ビデオプレイヤの操作と終了の制御、スリープ、シャットダウン、直感的にアンロックといった文脈に依存しないオペレーティングシステムタスクをうまく実行しました。
論文 参考訳(メタデータ) (2022-07-22T12:14:35Z) - Real-Time Gesture Recognition with Virtual Glove Markers [1.8352113484137629]
ジェスチャー認識アプリケーションのためのリアルタイムコンピュータビジョンに基づくヒューマンコンピュータインタラクションツールを提案する。
このシステムは、テレプレゼンスとリハビリテーションによるソーシャルインタラクションを含むリアルタイムアプリケーションに有効である。
論文 参考訳(メタデータ) (2022-07-06T14:56:08Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - MotionInput v2.0 supporting DirectX: A modular library of open-source
gesture-based machine learning and computer vision methods for interacting
and controlling existing software with a webcam [11.120698968989108]
MotionInput v2.0は、既存のアプリケーションやゲームの入力操作に人間の動きのジェスチャーをマッピングする。
3つのユースケース領域は、創造性ソフトウェア、オフィスおよび臨床ソフトウェア、ゲームソフトウェアというモジュールの開発を支援した。
論文 参考訳(メタデータ) (2021-08-10T08:23:21Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。