論文の概要: SynthoGestures: A Novel Framework for Synthetic Dynamic Hand Gesture
Generation for Driving Scenarios
- arxiv url: http://arxiv.org/abs/2309.04421v1
- Date: Fri, 8 Sep 2023 16:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 12:51:56.688981
- Title: SynthoGestures: A Novel Framework for Synthetic Dynamic Hand Gesture
Generation for Driving Scenarios
- Title(参考訳): synthogestures: 運転シナリオのための合成動的ハンドジェスチャ生成のための新しいフレームワーク
- Authors: Amr Gomaa and Robin Zitt and Guillermo Reyes and Antonio Kr\"uger
- Abstract要約: 我々のフレームワークは、リアルな手振りを合成し、カスタマイズオプションを提供し、オーバーフィッティングのリスクを低減する。
我々は、RGB、赤外線、深度カメラなどの様々なカメラの位置とタイプを、追加の時間とコストを伴わずにシミュレートする。
データセット作成に要する時間と労力を節約することにより、当社のツールは、自動車アプリケーションのためのジェスチャー認識システムの開発を加速する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a diverse and comprehensive dataset of hand gestures for dynamic
human-machine interfaces in the automotive domain can be challenging and
time-consuming. To overcome this challenge, we propose using synthetic gesture
datasets generated by virtual 3D models. Our framework utilizes Unreal Engine
to synthesize realistic hand gestures, offering customization options and
reducing the risk of overfitting. Multiple variants, including gesture speed,
performance, and hand shape, are generated to improve generalizability. In
addition, we simulate different camera locations and types, such as RGB,
infrared, and depth cameras, without incurring additional time and cost to
obtain these cameras. Experimental results demonstrate that our proposed
framework,
SynthoGestures\footnote{\url{https://github.com/amrgomaaelhady/SynthoGestures}},
improves gesture recognition accuracy and can replace or augment real-hand
datasets. By saving time and effort in the creation of the data set, our tool
accelerates the development of gesture recognition systems for automotive
applications.
- Abstract(参考訳): 自動車分野における動的ヒューマンマシンインタフェースのための多種多様な手ジェスチャーのデータセットを作成することは、困難で時間がかかる。
この課題を克服するために,仮想3dモデルによって生成された合成ジェスチャデータセットを提案する。
我々のフレームワークはUnreal Engineを使ってリアルな手ジェスチャーを合成し、カスタマイズオプションを提供し、オーバーフィッティングのリスクを低減する。
ジェスチャスピード、パフォーマンス、ハンドシェイプなど複数のバリエーションが生成され、汎用性が向上する。
さらに、RGB、赤外線、深度カメラなどの様々なカメラの位置やタイプを、これらのカメラを得るための追加の時間とコストを発生させることなくシミュレートする。
実験の結果,提案フレームワークであるSynthoGestures\footnote{\url{https://github.com/amrgomaaelhady/SynthoGestures}} がジェスチャー認識の精度を改善し,リアルタイムデータセットの置き換えや拡張が可能であった。
データセット作成に要する時間と労力を節約することにより、当社のツールは、自動車アプリケーションのためのジェスチャー認識システムの開発を加速する。
関連論文リスト
- Real-Time Hand Gesture Recognition: Integrating Skeleton-Based Data Fusion and Multi-Stream CNN [0.0]
ハンドジェスチャ認識(HGR)は、様々な現実世界のコンテキストにおいて、直感的な人間とコンピュータのインタラクションを可能にする。
既存のフレームワークは、実用的なHGRアプリケーションに必要なリアルタイム要件を満たすのに苦労することが多い。
本研究では,動的ハンドジェスチャの静的イメージタスクへの認識を簡略化する,動的HGRのための頑健な骨格ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T09:30:59Z) - HandBooster: Boosting 3D Hand-Mesh Reconstruction by Conditional Synthesis and Sampling of Hand-Object Interactions [68.28684509445529]
HandBoosterは、データの多様性を向上し、3Dハンド・ミーシュ・リコンストラクションのパフォーマンスを向上する新しいアプローチである。
まず,多様な手やポーズ,ビュー,背景を持つリアルな画像を生成するために,拡散モデルを誘導する多目的コンテンツ認識条件を構築した。
そこで我々は,我々の類似性を考慮した分布サンプリング戦略に基づく新しい条件作成手法を設計し,トレーニングセットとは異なる,斬新で現実的なインタラクションのポーズを意図的に見つける。
論文 参考訳(メタデータ) (2024-03-27T13:56:08Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - GTAutoAct: An Automatic Datasets Generation Framework Based on Game
Engine Redevelopment for Action Recognition [12.521014978532548]
GTAutoActは、ゲームエンジン技術を活用してアクション認識の進歩を促進する新しいデータセット生成フレームワークである。
座標に基づく3次元人間の動きを、複数の視点で適合性を高めた回転向きの表現に変換する。
自律的なビデオキャプチャと処理パイプラインを実装しており、ランダムにナビゲートするカメラと自動トリミングとラベル付け機能を備えている。
論文 参考訳(メタデータ) (2024-01-24T12:18:31Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Hands-Up: Leveraging Synthetic Data for Hands-On-Wheel Detection [0.38233569758620045]
この研究は、ドライバモニタリングシステムのトレーニングに合成フォトリアリスティックインキャビンデータを使用することを実証する。
プラットフォームでエラー解析を行い、欠落したエッジケースを生成することで、パフォーマンスが向上することを示す。
これは、人間中心の合成データが現実世界にうまく一般化する能力を示している。
論文 参考訳(メタデータ) (2022-05-31T23:34:12Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。