論文の概要: An Embedded and Real-Time Pupil Detection Pipeline
- arxiv url: http://arxiv.org/abs/2302.14098v1
- Date: Mon, 27 Feb 2023 19:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:09:21.549968
- Title: An Embedded and Real-Time Pupil Detection Pipeline
- Title(参考訳): 組込み・リアルタイム瞳孔検出パイプライン
- Authors: Ankur Raj, Diwas Bhattarai, Kristof Van Laerhoven
- Abstract要約: 本研究では,ウェアラブル・非侵襲型瞳孔検出のためのオープンソースの組込みシステムを提案する。
このシステムは2台の小型カメラシステムとRaspberry Piベースの組込みシステムを組み合わせたヘッドマウント型アイトラッカーのプロトタイプで構成されている。
- 参考スコア(独自算出の注目度): 2.23017937341178
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Wearable pupil detection systems often separate the analysis of the captured
wearer's eye images for wirelessly-tethered back-end systems. We argue in this
paper that investigating hardware-software co-designs would bring along
opportunities to make such systems smaller and more efficient. We introduce an
open-source embedded system for wearable, non-invasive pupil detection in
real-time, on the wearable, embedded platform itself. Our system consists of a
head-mounted eye tracker prototype, which combines two miniature camera systems
with Raspberry Pi-based embedded system. Apart from the hardware design, we
also contribute a pupil detection pipeline that operates using edge analysis,
natively on the embedded system at 30fps and run-time of 54ms at 480x640 and
23ms at 240x320. Average cumulative error of 5.3368px is found on the LPW
dataset for a detection rate of 51.9\% with our detection pipeline. For
evaluation on our hardware-specific camera frames, we also contribute a dataset
of 35000 images, from 20 participants.
- Abstract(参考訳): ウェアラブルな瞳孔検出システムは、無線通信のバックエンドシステムにおいて、捕獲された装着者の目像の分析を分離することが多い。
この論文では、ハードウェアとソフトウェアの共同設計を調査することは、システムをより小さく、より効率的にする機会をもたらすと論じている。
ウェアラブルで非侵襲的な瞳孔検出をリアルタイムに,ウェアラブルで組み込みプラットフォーム上で行うための,オープンソースの組み込みシステムを提案する。
2つの小型カメラシステムとraspberry piベースの組み込みシステムを組み合わせた,ヘッドマウント型アイトラッカプロトタイプである。
ハードウェア設計とは別に,30fpsの組込みシステムと480x640の54ms,240x320の23msのランタイムでエッジ解析を用いて動作する瞳孔検出パイプラインも提供しています。
lpwデータセットには平均累積誤差5.3368pxが検出パイプラインで51.9\%検出される。
ハードウェア固有のカメラフレームの評価には、20人の参加者から35,000枚の画像のデータセットも提供します。
関連論文リスト
- DIOR: Dataset for Indoor-Outdoor Reidentification -- Long Range 3D/2D
Skeleton Gait Collection Pipeline, Semi-Automated Gait Keypoint Labeling and
Baseline Evaluation Methods [8.265408202637857]
本稿では,データ収集と半自動アノテーションのためのフレームワークであるDIORを紹介し,14の被験者と1.649万のRGBフレームと3D/2Dスケルトン歩行ラベルを備えたデータセットを提供する。
我々は,RGBフレーム内の20-25ピクセルに制限された場合であっても,遠方の被験者に対して正確なスケルトンラベリングを実現することに成功した。
論文 参考訳(メタデータ) (2023-09-21T18:51:00Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - Near-infrared and visible-light periocular recognition with Gabor
features using frequency-adaptive automatic eye detection [69.35569554213679]
近視認識は、制御の少ないシナリオにおいて、顔や虹彩の堅牢性の増大が要求されるため、近年注目を集めている。
本稿では,複雑な対称性フィルタに基づく眼球検出システムを提案する。
このシステムはレチノトピックサンプリンググリッドとガボルスペクトル分解に基づく近視アルゴリズムの入力として用いられる。
論文 参考訳(メタデータ) (2022-11-10T13:04:03Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Real-time HOG+SVM based object detection using SoC FPGA for a UHD video
stream [0.0]
本稿では、HOG(Histogram of Oriented Gradients)特徴抽出とSVM(Support Vector Machine)分類を用いた、よく知られた歩行者検出器のリアルタイム実装について述べる。
このシステムは、歩行者を単一のスケールで検出することができる。
論文 参考訳(メタデータ) (2022-04-22T10:29:21Z) - Lightweight Multi-Drone Detection and 3D-Localization via YOLO [1.284647943889634]
本稿では,実時間複数ドローン検出と3次元位置推定を行う手法を提案し,評価する。
我々は最先端の小さなYOLOv4オブジェクト検出アルゴリズムとステレオ三角測量を用いる。
我々のコンピュータビジョンアプローチは、計算コストのかかるステレオマッチングアルゴリズムを不要にする。
論文 参考訳(メタデータ) (2022-02-18T09:41:23Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - A Learned Stereo Depth System for Robotic Manipulation in Homes [2.06216858680643]
人間の環境に最適化された高密度で正確な点雲を生成する受動的ステレオ深度システムを提案する。
このシステムは、学習されたステレオマッチングとエンジニアリングされたフィルタリング、トレーニングとデータミキシングの方法論、センサーハードウェア設計を組み合わせたアルゴリズムで構成されている。
論文 参考訳(メタデータ) (2021-09-23T20:53:55Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。