論文の概要: High Speed Rotation Estimation with Dynamic Vision Sensors
- arxiv url: http://arxiv.org/abs/2209.02205v1
- Date: Tue, 6 Sep 2022 04:00:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:31:23.005359
- Title: High Speed Rotation Estimation with Dynamic Vision Sensors
- Title(参考訳): ダイナミックビジョンセンサを用いた高速回転推定
- Authors: Guangrong Zhao, Yiran Shen, Ning Chen, Pengfei Hu, Lei Liu, Hongkai
Wen
- Abstract要約: EV-Tachの相対平均絶対誤差(RMAE)は0.03%と低い。
EV-Tachは、ユーザの手の微妙な動きに対して堅牢であるため、レーザーが合理的な結果を出さないハンドヘルドデバイスとして使用することができる。
- 参考スコア(独自算出の注目度): 10.394670846430635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rotational speed is one of the important metrics to be measured for
calibrating the electric motors in manufacturing, monitoring engine during car
repairing, faults detection on electrical appliance and etc. However, existing
measurement techniques either require prohibitive hardware (e.g., high-speed
camera) or are inconvenient to use in real-world application scenarios. In this
paper, we propose, EV-Tach, an event-based tachometer via efficient dynamic
vision sensing on mobile devices. EV-Tach is designed as a high-fidelity and
convenient tachometer by introducing dynamic vision sensor as a new sensing
modality to capture the high-speed rotation precisely under various real-world
scenarios. By designing a series of signal processing algorithms bespoke for
dynamic vision sensing on mobile devices, EV-Tach is able to extract the
rotational speed accurately from the event stream produced by dynamic vision
sensing on rotary targets. According to our extensive evaluations, the Relative
Mean Absolute Error (RMAE) of EV-Tach is as low as 0.03% which is comparable to
the state-of-the-art laser tachometer under fixed measurement mode. Moreover,
EV-Tach is robust to subtle movement of user's hand, therefore, can be used as
a handheld device, where the laser tachometer fails to produce reasonable
results.
- Abstract(参考訳): 回転速度は、製造中の電動機の校正、修理中の監視エンジン、電化製品の故障検出などにおいて測定すべき重要な指標の1つである。
しかし、既存の計測技術は禁止ハードウェア(例えば、高速カメラ)を必要とするか、現実のアプリケーションシナリオでは不便である。
本稿では,モバイルデバイス上でのダイナミック・ビジョン・センシングによるイベントベースのタコメーターEV-Tachを提案する。
EV-Tachは、様々な現実のシナリオ下での高速回転を正確に捉えるために、新しいセンシングモードとして動的視覚センサを導入することで、高忠実で便利なタコメーターとして設計されている。
デバイス上での動的視覚センシングのための一連の信号処理アルゴリズムを設計することにより、EV-Tachは、回転目標に対する動的視覚センシングによって生成されたイベントストリームから正確な回転速度を抽出することができる。
我々の広範な評価によると、EV-Tachの相対平均絶対誤差(RMAE)は0.03%以下であり、固定測定モードにおける最先端のレーザータコメーターに匹敵する。
さらに、ev−tachは手の微妙な動きに頑健であるため、レーザータコメータが合理的な結果を出すことができないハンドヘルドデバイスとして使用できる。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Predicting Surface Texture in Steel Manufacturing at Speed [81.90215579427463]
亜鉛めっきおよび熱間圧延過程における鋼板の表面テクスチャの制御は,顧客要求を満たすために不可欠である。
本稿では,インラインレーザ反射計測から表面特性予測への変換精度向上のための機械学習の利用を提案する。
論文 参考訳(メタデータ) (2023-01-20T12:11:03Z) - Rapid-Motion-Track: Markerless Tracking of Fast Human Motion with Deeper
Learning [10.086410807283746]
運動の小さな欠損は、しばしば基礎となる神経学的問題の最初の兆候である。
エンド・ツー・エンドのディープラーニングシステムであるRapid-Motion-Track(RMT)を開発した。
RMTは、ウェブカメラやラップトップカメラを使用するとき、人間の動きを正確に追跡することができる。
論文 参考訳(メタデータ) (2023-01-18T22:57:34Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Visual-Inertial Odometry with Online Calibration of Velocity-Control
Based Kinematic Motion Models [3.42658286826597]
視覚慣性オドメトリー(VIO)は、パワーとペイロードの制約のある自律ロボットにとって重要な技術である。
本稿では,車輪付き移動ロボットの速度制御に基づく運動モデルの統合と校正を行うステレオカメラを用いたVIOの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-14T06:21:12Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - DVIO: Depth aided visual inertial odometry for RGBD sensors [7.745106319694523]
本稿では、RGBDセンサと慣性計測ユニット(IMU)センサを用いて、モバイルデバイスの動作状態を推定する新しい視覚慣性オドメトリー(VIO)システムを提案する。
このシステムはDVIO(Deep-Aided VIO)システムと呼ばれる。
論文 参考訳(メタデータ) (2021-10-20T22:12:01Z) - Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning [24.999540933593273]
本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
論文 参考訳(メタデータ) (2021-09-30T10:03:56Z) - MIMC-VINS: A Versatile and Resilient Multi-IMU Multi-Camera
Visual-Inertial Navigation System [44.76768683036822]
視覚慣性ナビゲーションシステムのためのリアルタイム一貫したマルチIMUマルチカメラ(CMU)-VINS推定器を提案する。
効率的な多状態制約フィルタ内では、提案したMIMC-VINSアルゴリズムは、すべてのセンサからの非同期測定を最適に融合する。
提案したMIMC-VINSはモンテカルロシミュレーションと実世界実験の両方で検証されている。
論文 参考訳(メタデータ) (2020-06-28T20:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。