論文の概要: Whose hand is this? Person Identification from Egocentric Hand Gestures
- arxiv url: http://arxiv.org/abs/2011.08900v1
- Date: Tue, 17 Nov 2020 19:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 17:05:13.935439
- Title: Whose hand is this? Person Identification from Egocentric Hand Gestures
- Title(参考訳): これは誰の手?
自己中心的手振りからの人物識別
- Authors: Satoshi Tsutsui, Yanwei Fu, David Crandall
- Abstract要約: 無拘束の自我中心手ジェスチャーを用いた自我中心手同定の可能性について検討した。
色、形状、肌のテクスチャ、深度マップなど、さまざまな視覚的手がかりを探索し、ユーザの手を特定する。
EHIは、ユーザ間の差異を無視するように、逆さまにトレーニングすることで、ジェスチャー認識などの他のタスクの一般化を改善することができることを示す。
- 参考スコア(独自算出の注目度): 36.02360322125622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing people by faces and other biometrics has been extensively studied
in computer vision. But these techniques do not work for identifying the wearer
of an egocentric (first-person) camera because that person rarely (if ever)
appears in their own first-person view. But while one's own face is not
frequently visible, their hands are: in fact, hands are among the most common
objects in one's own field of view. It is thus natural to ask whether the
appearance and motion patterns of people's hands are distinctive enough to
recognize them. In this paper, we systematically study the possibility of
Egocentric Hand Identification (EHI) with unconstrained egocentric hand
gestures. We explore several different visual cues, including color, shape,
skin texture, and depth maps to identify users' hands. Extensive ablation
experiments are conducted to analyze the properties of hands that are most
distinctive. Finally, we show that EHI can improve generalization of other
tasks, such as gesture recognition, by training adversarially to encourage
these models to ignore differences between users.
- Abstract(参考訳): 顔やその他の生体情報による人物の認識はコンピュータビジョンにおいて広く研究されている。
しかし、このようなテクニックは、自己中心型(一人称)カメラの装着者を特定するのに役立ちません。
しかし、自分の顔はよく見えないが、彼らの手は、実際、手は自分の視野の中で最も一般的な物である。
したがって、人の手の外観や動きのパターンが認識できるほど独特かどうかを問うのは当然である。
そこで,本研究では,自己中心型手指ジェスチャを用いた自己中心型手指識別(ehi)の可能性について体系的に検討する。
色、形状、肌のテクスチャ、深度マップなど、さまざまな視覚的手がかりを探索し、ユーザの手を特定する。
最も特徴的な手の特性を分析するために広範囲のアブレーション実験を行った。
最後に, ehiは, ユーザ間の差異を無視するよう, 敵対的にトレーニングすることで, ジェスチャ認識などの他のタスクの一般化を改善できることを示す。
関連論文リスト
- Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - Assessing the Efficacy of Deep Learning Approaches for Facial Expression Recognition in Individuals with Intellectual Disabilities [0.7124736158080939]
我々は、知的障害者の表情を認識するために、異なるアプローチで12の畳み込みニューラルネットワークを訓練する。
本研究は,ユーザ固有の訓練手法を用いて,この集団内での表情認識の必要性を示唆するものである。
論文 参考訳(メタデータ) (2024-01-22T12:02:40Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Human Hands as Probes for Interactive Object Understanding [8.330625683887957]
人間の手の動きと、関連するデータと必要な監視の両方を提供する方法の観察を実証する。
EPIC-KITCHENSデータセットにこれらの基本原理を適用し、状態に敏感な特徴をうまく学習する。
論文 参考訳(メタデータ) (2021-12-16T18:58:03Z) - Egocentric View Hand Action Recognition by Leveraging Hand Surface and
Hand Grasp Type [15.878905144552204]
このフレームワークは、手メッシュモデルの平均曲率を合成し、3次元空間における手表面形状を符号化する。
手のつかみタイプと手の平均曲率を用いることで,手の動き認識の性能が向上する。
論文 参考訳(メタデータ) (2021-09-08T17:12:02Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - Automatic Main Character Recognition for Photographic Studies [78.88882860340797]
画像の主人公は、最初に見る人の注意を引く最も重要な人間である。
画像中の主文字の同定は,従来の写真研究やメディア分析において重要な役割を担っている。
機械学習に基づく人間のポーズ推定を用いて主文字を識別する手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T18:14:45Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z) - Hand-Priming in Object Localization for Assistive Egocentric Vision [45.38703542455732]
エゴセントリックなビジョンは、視覚情報へのアクセスを増やし、視覚障害者の生活の質を向上させるための大きな約束を持っています。
対象物の中心領域を予備化するための文脈情報として手の存在を利用するローカライゼーションモデルを提案する。
視覚障害者や視覚障害者の自我中心のデータセットを用いて、手作りが他の手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2020-02-28T05:32:36Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。