論文の概要: FLIVVER: Fly Lobula Inspired Visual Velocity Estimation & Ranging
- arxiv url: http://arxiv.org/abs/2004.05247v1
- Date: Fri, 10 Apr 2020 22:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 21:36:39.896782
- Title: FLIVVER: Fly Lobula Inspired Visual Velocity Estimation & Ranging
- Title(参考訳): FLIVVER:フライロブラの視覚的速度推定とラング
- Authors: Bryson Lingenfelter, Arunava Nag, and Floris van Breugel
- Abstract要約: 小さな昆虫や昆虫サイズのロボットは、その絶対速度と近くの物体までの距離を推定することができる。
本稿では,動的前方運動の幾何学と昆虫視覚処理のインスピレーションを組み合わせた新しいアルゴリズムFLIVVERを提案する。
我々のアルゴリズムは、昆虫が絶対速度を推定する方法の明確な仮説を提供し、また効率的な状態推定のために高速アナログ回路を設計するための理論的枠組みを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The mechanism by which a tiny insect or insect-sized robot could estimate its
absolute velocity and distance to nearby objects remains unknown. However, this
ability is critical for behaviors that require estimating wind direction during
flight, such as odor-plume tracking. Neuroscience and behavior studies with
insects have shown that they rely on the perception of image motion, or optic
flow, to estimate relative motion, equivalent to a ratio of their velocity and
distance to objects in the world. The key open challenge is therefore to
decouple these two states from a single measurement of their ratio. Although
modern SLAM (Simultaneous Localization and Mapping) methods provide a solution
to this problem for robotic systems, these methods typically rely on
computations that insects likely cannot perform, such as simultaneously
tracking multiple individual visual features, remembering a 3D map of the
world, and solving nonlinear optimization problems using iterative algorithms.
Here we present a novel algorithm, FLIVVER, which combines the geometry of
dynamic forward motion with inspiration from insect visual processing to
\textit{directly} estimate absolute ground velocity from a combination of optic
flow and acceleration information. Our algorithm provides a clear hypothesis
for how insects might estimate absolute velocity, and also provides a
theoretical framework for designing fast analog circuitry for efficient state
estimation, which could be applied to insect-sized robots.
- Abstract(参考訳): 小さな昆虫や昆虫サイズのロボットが、その絶対速度と近くの物体までの距離を推定するメカニズムはまだ不明だ。
しかし、この能力は飛行中の風向を推定する必要のある行動、例えば臭気・プルーム追跡に不可欠である。
昆虫による神経科学と行動研究は、相対運動を推定するために、画像の動きや光の流れの知覚に依存することを示しており、これは世界の物体に対する速度と距離の比に相当する。
したがって、鍵となるオープンな課題は、これらの2つの状態とその比率の単一の測定から切り離すことである。
現代のSLAM(Simultaneous Localization and Mapping)法は、ロボットシステムにおいてこの問題に対する解決策を提供するが、これらの手法は一般的に、昆虫が複数の視覚的特徴を同時に追跡したり、世界の3Dマップを記憶したり、反復アルゴリズムを用いて非線形最適化問題を解くなど、実行できない可能性のある計算に依存する。
本稿では,動的前方運動の幾何学と昆虫の視覚処理からのインスピレーションを組み合わせた新しいアルゴリズムFLIVVERと,光学フローと加速度情報の組合せから絶対接地速度を推定する。
本アルゴリズムは,昆虫が絶対速度を推定する方法に関する明確な仮説と,昆虫サイズのロボットに適用可能な効率的な状態推定のための高速アナログ回路を設計するための理論的枠組みを提供する。
関連論文リスト
- Ultrafast vision perception by neuromorphic optical flow [1.1980928503177917]
3次元ニューロモルフィック光フロー法は,外的運動特徴を直接ハードウェアに埋め込む。
実演では,視覚的なデータ処理時間を平均0.3秒短縮する。
ニューロモルフィック光フローアルゴリズムの柔軟性は、既存のアルゴリズムとのシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-09-10T10:59:32Z) - Neural Implicit Swept Volume Models for Fast Collision Detection [0.0]
本稿では,深層学習に基づく符号付き距離計算の高速化と幾何衝突チェッカーの精度保証を併用したアルゴリズムを提案する。
シミュレーションおよび実世界のロボット実験において、我々のアプローチを検証するとともに、商用ビンピッキングアプリケーションを高速化できることを実証する。
論文 参考訳(メタデータ) (2024-02-23T12:06:48Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Map-Based Temporally Consistent Geolocalization through Learning Motion
Trajectories [0.5076419064097732]
本稿では, トポロジカルマップ上での運動軌跡を利用したニューラルネットを用いた新しい軌跡学習手法を提案する。
ナビゲーションにおける自己運動の距離と方向の両方を認識できる人間の能力に触発されて,軌道学習法は,距離の列として符号化された軌道のパターン表現を学習し,角度を回転させて自己局所化を支援する。
論文 参考訳(メタデータ) (2020-10-13T02:08:45Z) - Appearance-free Tripartite Matching for Multiple Object Tracking [6.165592821539306]
マルチオブジェクト追跡(MOT)は、入力されたビデオから複数のオブジェクトの軌跡を検出する。
既存のアルゴリズムのほとんどはオブジェクトの外観の特異性に依存しており、支配的な二部マッチング方式は速度の滑らかさを無視する。
両部マッチングの不規則な速度問題を回避するために, 外観自由三部マッチングを提案する。
論文 参考訳(メタデータ) (2020-08-09T02:16:44Z) - Wave Propagation of Visual Stimuli in Focus of Attention [77.4747032928547]
周囲の視覚環境の変化に対する迅速な反応は、計算資源を視覚領域の最も関連する場所に再配置する効率的な注意機構を必要とする。
本研究は, 営巣動物が提示する有効性と効率性を示す, 生物学的に有望な注目焦点モデルを提案する。
論文 参考訳(メタデータ) (2020-06-19T09:33:21Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。