論文の概要: FaceTouch: Detecting hand-to-face touch with supervised contrastive
learning to assist in tracing infectious disease
- arxiv url: http://arxiv.org/abs/2308.12840v1
- Date: Thu, 24 Aug 2023 14:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 13:47:24.301239
- Title: FaceTouch: Detecting hand-to-face touch with supervised contrastive
learning to assist in tracing infectious disease
- Title(参考訳): FaceTouch:感染の追跡を支援する教師付きコントラスト学習による対面タッチの検出
- Authors: Mohamed R. Ibrahim and Terry Lyons
- Abstract要約: FaceTouchは、ビデオチャット、バスの映像、CCTVのフィードなど、手動による触覚の検出を目指している。
これは、手の動きと顔の近さを単純に識別する以上の複雑な都市シナリオで有用であることが示されている。
- 参考スコア(独自算出の注目度): 6.164223149261533
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Through our respiratory system, many viruses and diseases frequently spread
and pass from one person to another. Covid-19 served as an example of how
crucial it is to track down and cut back on contacts to stop its spread. There
is a clear gap in finding automatic methods that can detect hand-to-face
contact in complex urban scenes or indoors. In this paper, we introduce a
computer vision framework, called FaceTouch, based on deep learning. It
comprises deep sub-models to detect humans and analyse their actions. FaceTouch
seeks to detect hand-to-face touches in the wild, such as through video chats,
bus footage, or CCTV feeds. Despite partial occlusion of faces, the introduced
system learns to detect face touches from the RGB representation of a given
scene by utilising the representation of the body gestures such as arm
movement. This has been demonstrated to be useful in complex urban scenarios
beyond simply identifying hand movement and its closeness to faces. Relying on
Supervised Contrastive Learning, the introduced model is trained on our
collected dataset, given the absence of other benchmark datasets. The framework
shows a strong validation in unseen datasets which opens the door for potential
deployment.
- Abstract(参考訳): 呼吸器系を通じて、多くのウイルスや病気が拡散し、ある人から別の人へ伝えられる。
Covid-19は、感染拡大を止めるために接触を追跡・断ち切ることがいかに重要かを示す一例となった。
複雑な都市や屋内で対面接触を検知できる自動的な方法を見つけることには明確なギャップがある。
本稿では,深層学習に基づくFaceTouchというコンピュータビジョンフレームワークを提案する。
ヒトを検知し、その行動を分析するための深いサブモデルを含んでいる。
FaceTouchは、ビデオチャット、バスの映像、CCTVのフィードなど、手動による触覚の検出を目指している。
顔の一部が隠蔽されているにも拘わらず、腕の動きなどの身体動作の表現を利用して、所定のシーンのRGB表現から顔の触覚を検出する。
これは、手の動きと顔の近さを単純に識別する以上の複雑な都市シナリオで有用であることが示されている。
Supervised Contrastive Learningに基づいて、導入されたモデルは、他のベンチマークデータセットがないため、収集したデータセットに基づいてトレーニングされます。
このフレームワークは、潜在的デプロイメントの扉を開く未確認データセットに強力なバリデーションを示す。
関連論文リスト
- TouchInsight: Uncertainty-aware Rapid Touch and Text Input for Mixed Reality from Egocentric Vision [25.271209425555906]
任意の物理的表面上の10本の指すべてからタッチ入力を検出するリアルタイムパイプラインを提案する。
筆者らのTouchInsightは,タッチイベントの瞬間,指の接触,タッチ位置を予測するニューラルネットワークを備える。
論文 参考訳(メタデータ) (2024-10-08T11:42:44Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Attention for Robot Touch: Tactile Saliency Prediction for Robust
Sim-to-Real Tactile Control [12.302685367517718]
高解像度触覚センサーは、接触に富むロボットタスクにおける局所的な接触に関する情報を正確に提供することができる。
我々は,神経科学の人間のタッチアテンション機構にヒントを得た,ロボットタッチのためのテクスティタクティル・サリエンシ(textittactile saliency)という新しい概念を研究した。
論文 参考訳(メタデータ) (2023-07-26T21:19:45Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Face Forgery Detection Based on Facial Region Displacement Trajectory
Series [10.338298543908339]
本研究では,顔領域変位の軌跡に基づく操作映像の検出手法を開発した。
この情報を用いて、操作されたビデオの軌跡列に多次元のアーティファクトを露呈するネットワークを構築した。
論文 参考訳(メタデータ) (2022-12-07T14:47:54Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - An Ensemble Model for Face Liveness Detection [2.322052136673525]
本研究では,アンサンブル深層学習技術を用いて顔提示攻撃を検出する受動的手法を提案する。
本研究では,顔領域と背景領域の複数の特徴を学習し,ユーザがボナフィドか攻撃者かを予測するアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T12:43:39Z) - A Survey on Masked Facial Detection Methods and Datasets for Fighting
Against COVID-19 [64.88701052813462]
新型コロナウイルス感染症2019(COVID-19)は、感染拡大以来、世界にとって大きな課題となっている。
この病気と闘うために、一連の人工知能(AI)技術が開発され、現実世界のシナリオに適用される。
本稿では主に、マスク付き顔検出と関連するデータセットのAI技術に焦点を当てる。
論文 参考訳(メタデータ) (2022-01-13T03:28:20Z) - A Computer Vision System to Help Prevent the Transmission of COVID-19 [79.62140902232628]
新型コロナウイルスのパンデミックは世界中の日常生活のあらゆる領域に影響を与える。
保健機関は、ソーシャルディスタンス、フェイスマスクを着用し、触れる顔を避けることをアドバイスします。
我々は、新型コロナウイルスの感染を防ぐためのディープラーニングベースのコンピュータビジョンシステムを開発した。
論文 参考訳(メタデータ) (2021-03-16T00:00:04Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。