論文の概要: Fast Hand Detection in Collaborative Learning Environments
- arxiv url: http://arxiv.org/abs/2110.07070v1
- Date: Wed, 13 Oct 2021 22:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 06:06:01.431098
- Title: Fast Hand Detection in Collaborative Learning Environments
- Title(参考訳): 協調学習環境における高速手検出
- Authors: Sravani Teeparthi, Venkatesh Jatla, Marios S. Pattichis, Sylvia
Celedon Pattichis, Carlos LopezLeiva
- Abstract要約: 長期オブジェクト検出には、フレームベースの結果を数秒以上統合する必要がある。
協調学習環境における長時間のビデオ記録における手検出について検討した。
提案手法はオブジェクト検出を統合し,時間投影,クラスタリング,小領域削除を行う。
- 参考スコア(独自算出の注目度): 7.954705422811769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-term object detection requires the integration of frame-based results
over several seconds. For non-deformable objects, long-term detection is often
addressed using object detection followed by video tracking. Unfortunately,
tracking is inapplicable to objects that undergo dramatic changes in appearance
from frame to frame. As a related example, we study hand detection over long
video recordings in collaborative learning environments. More specifically, we
develop long-term hand detection methods that can deal with partial occlusions
and dramatic changes in appearance.
Our approach integrates object-detection, followed by time projections,
clustering, and small region removal to provide effective hand detection over
long videos. The hand detector achieved average precision (AP) of 72% at 0.5
intersection over union (IoU). The detection results were improved to 81% by
using our optimized approach for data augmentation. The method runs at 4.7x the
real-time with AP of 81% at 0.5 intersection over the union. Our method reduced
the number of false-positive hand detections by 80% by improving IoU ratios
from 0.2 to 0.5. The overall hand detection system runs at 4x real-time.
- Abstract(参考訳): 長期オブジェクト検出には、フレームベースの結果を数秒以上統合する必要がある。
非変形可能なオブジェクトの場合、長期検出はオブジェクト検出とビデオ追跡を使って対処されることが多い。
残念ながら、トラッキングはフレームからフレームへの外観が劇的に変化するオブジェクトには適用できない。
関連する例として,協調学習環境における長時間映像記録による手検出について検討する。
具体的には,部分閉塞や外見の劇的変化に対処できる長期手検出法を開発した。
提案手法では,オブジェクト検出と時間投影,クラスタリング,小領域削除を併用して,長時間ビデオ上で有効な手検出を実現する。
ハンド検出器は、結合(IoU)の0.5の交差点で平均精度(AP)を72%達成した。
データ拡張に最適化した手法を用いて,検出結果を81%に改善した。
この方法はリアルタイムで4.7倍、APは0.5の交差点で81%である。
IoU比を0.2から0.5に改善し,偽陽性手の検出回数を80%削減した。
全体の手検出システムは4倍のリアルタイムで動作する。
関連論文リスト
- Practical Video Object Detection via Feature Selection and Aggregation [18.15061460125668]
ビデオオブジェクト検出(VOD)は、オブジェクトの外観における高いフレーム間変動と、いくつかのフレームにおける多様な劣化を懸念する必要がある。
現代のアグリゲーション法のほとんどは、高い計算コストに苦しむ2段階検出器用に調整されている。
この研究は、特徴選択と集約の非常に単純だが強力な戦略を考案し、限界計算コストでかなりの精度を得る。
論文 参考訳(メタデータ) (2024-07-29T02:12:11Z) - Real-time Multi-Object Tracking Based on Bi-directional Matching [0.0]
本研究では,多目的追跡のための双方向マッチングアルゴリズムを提案する。
ストランド領域はマッチングアルゴリズムで使われ、追跡できないオブジェクトを一時的に保存する。
MOT17チャレンジでは、提案アルゴリズムは63.4%のMOTA、55.3%のIDF1、20.1のFPS追跡速度を達成した。
論文 参考訳(メタデータ) (2023-03-15T08:38:08Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Active Learning of Neural Collision Handler for Complex 3D Mesh
Deformations [68.0524382279567]
3次元変形メッシュにおける衝突の検出と処理を行う頑健な学習アルゴリズムを提案する。
提案手法は教師あり学習法より優れ, 精度は93.8-98.1%である。
論文 参考訳(メタデータ) (2021-10-08T04:08:31Z) - Small Object Detection Based on Modified FSSD and Model Compression [7.387639662781843]
本稿では,FSSDに基づく小型物体検出アルゴリズムを提案する。
計算コストと記憶空間を削減するため, モデル圧縮を実現するためにプルーニングを行う。
アルゴリズムの平均精度(mAP)は、PASCAL VOCで80.4%、GTX1080tiで59.5 FPSに達する。
論文 参考訳(メタデータ) (2021-08-24T03:20:32Z) - Long Term Object Detection and Tracking in Collaborative Learning
Environments [0.0]
私の論文は、長いビデオ中の物体を検出し、追跡するための正確な方法の開発に焦点を当てている。
すべてのモデルは、7つのセッションから45分から90分まで、ビデオで検証される。
0.5 IoUで平均精度(AP)を72%達成し, 最適データ拡張パラメータを用いて81%に改善した。
論文 参考訳(メタデータ) (2021-06-02T20:15:14Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Joint Detection and Tracking in Videos with Identification Features [36.55599286568541]
本稿では,ビデオ検出,追跡,再識別機能の最初の共同最適化を提案する。
提案手法はMOTの最先端に到達し,オンライントラッカーにおけるUA-DETRAC'18追跡課題のうち,第1位,第3位にランクインした。
論文 参考訳(メタデータ) (2020-05-21T21:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。