論文の概要: Fast Active Monocular Distance Estimation from Time-to-Contact
- arxiv url: http://arxiv.org/abs/2203.07530v1
- Date: Mon, 14 Mar 2022 22:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 11:05:00.951304
- Title: Fast Active Monocular Distance Estimation from Time-to-Contact
- Title(参考訳): 時間-接触による高速能動単眼距離推定
- Authors: Levi Burner, Nitin J. Sanket, Cornelia Ferm\"uller, Yiannis Aloimonos
- Abstract要約: 我々は,「$tau$-constraint」と呼ぶ,時間対接触,加速度,距離の新たな制約を開発する。
単眼グレースケールカメラと慣性測定ユニット(IMU)によるカメラ位置推定の適用において,提案した$tau$-constraintの検証に成功した。
提案手法は平均軌道誤差(ATE)が8.5cm,VINS-MonoとROVIOが12.2cm,16.9cmである。
- 参考スコア(独自算出の注目度): 11.42255206231459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distance estimation is fundamental for a variety of robotic applications
including navigation, manipulation and planning. Inspired by the mammal's
visual system, which gazes at specific objects (active fixation), and estimates
when the object will reach it (time-to-contact), we develop a novel constraint
between time-to-contact, acceleration, and distance that we call the
$\tau$-constraint. It allows an active monocular camera to estimate depth using
time-to-contact and inertial measurements (linear accelerations and angular
velocities) within a window of time.
Our work differs from other approaches by focusing on patches instead of
feature points. This is, because the change in the patch area determines the
time-to-contact directly. The result enables efficient estimation of distance
while using only a small portion of the image, leading to a large speedup.
We successfully validate the proposed $\tau$-constraint in the application of
estimating camera position with a monocular grayscale camera and an Inertial
Measurement Unit (IMU). Specifically, we test our method on different
real-world planar objects over trajectories 8-40 seconds in duration and 7-35
meters long. Our method achieves 8.5 cm Average Trajectory Error (ATE) while
the popular Visual-Inertial Odometry methods VINS-Mono and ROVIO achieve 12.2
and 16.9 cm ATE respectively. Additionally, our implementation runs 27$\times$
faster than VINS-Mono's and 6.8$\times$ faster than ROVIO's. We believe these
results indicate the $\tau$-constraints potential to be the basis of robust,
sophisticated algorithms for a multitude of applications involving an active
camera and an IMU.
- Abstract(参考訳): 距離推定は、ナビゲーション、操作、計画を含む様々なロボットアプリケーションに基礎を置いている。
哺乳類の視覚系に触発され、特定の物体(アクティブな固定)を見つめ、物体がいつ到達するかを推定し(時間から接触まで)、接触までの時間と加速度と距離の間の新しい制約を開発し、これを「$\tau$-constraint」と呼ぶ。
アクティブな単眼カメラは、時間窓内の時間-接触および慣性測定(線形加速度と角速度)を用いて深さを推定できる。
私たちの仕事は、機能ポイントではなくパッチにフォーカスすることで、他のアプローチと異なります。
これは、パッチ領域の変更が直接接触する時間を決定するためである。
その結果、画像のわずかな部分のみを使用しながら、効率的な距離推定が可能となり、大きなスピードアップがもたらされる。
カメラ位置をモノクログレースケールカメラと慣性測定ユニット(IMU)で推定することにより,提案した$\tau$-constraintの検証に成功した。
具体的には,距離8~40秒,長さ7~35メートルの軌道上の異なる実世界の平面物体について実験を行った。
提案手法は平均軌道誤差(ATE)が8.5cm,VINS-MonoとROVIOが12.2cm,16.9cmである。
さらに、我々の実装はVINS-Monoより27$\times$速く、ROVIOより6.8$\times$速く動作します。
これらの結果は,アクティブカメラとIMUを含む多数のアプリケーションに対して,堅牢で洗練されたアルゴリズムの基礎となる,$\tau$-constraintsの可能性を示している。
関連論文リスト
- oTTC: Object Time-to-Contact for Motion Estimation in Autonomous Driving [4.707950656037167]
自律運転システムは衝突を避け安全に運転するために 物体検出に大きく依存している
モノクロ3Dオブジェクト検出器は、カメラ画像から3D境界ボックスと物体速度を直接予測することでこの問題を解決しようとする。
最近の研究では、ピクセルごとの時間対接触を推定し、速度と深さの組み合わせよりも効果的に測定できることが示唆されている。
オブジェクト検出モデルを拡張したオブジェクトごとの時間対接触推定を提案し,各オブジェクトの時間対接触属性を付加的に予測する。
論文 参考訳(メタデータ) (2024-05-13T12:34:18Z) - Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - Unlocking the Performance of Proximity Sensors by Utilizing Transient
Histograms [20.994250740256458]
近距離時間(ToF)距離センサのクラスで捉えた一過性ヒストグラムを利用して平面風景形状を復元する手法を提案する。
過渡ヒストグラム(Transient histogram)は、ToFセンサに入射した光子の到着時刻を符号化した1次元の時間波形である。
本稿では,ロボットアームのエンドエフェクタに装着したセンサから平面面の距離と傾斜を計測するために,本手法を用いたシンプルなロボット工学アプリケーションを実演する。
論文 参考訳(メタデータ) (2023-08-25T16:20:41Z) - DeepFusionMOT: A 3D Multi-Object Tracking Framework Based on
Camera-LiDAR Fusion with Deep Association [8.34219107351442]
本稿では,精度と速度の良好なトレードオフを実現するために,カメラ-LiDAR融合型MOT法を提案する。
提案手法は、追跡精度と処理速度の両方の観点から、最先端MOT法に対して明らかな利点を示す。
論文 参考訳(メタデータ) (2022-02-24T13:36:29Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。