論文の概要: CUAHN-VIO: Content-and-Uncertainty-Aware Homography Network for
Visual-Inertial Odometry
- arxiv url: http://arxiv.org/abs/2208.13935v1
- Date: Tue, 30 Aug 2022 00:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:50:29.435529
- Title: CUAHN-VIO: Content-and-Uncertainty-Aware Homography Network for
Visual-Inertial Odometry
- Title(参考訳): CUAHN-VIO:Visual-Inertial Odometryのためのコンテンツと不確かさを意識したホログラフィネットワーク
- Authors: Yingfu Xu and Guido C. H. E. de Croon
- Abstract要約: 学習ベースの視覚的エゴモーション推定は、現実の世界でアジャイルなモバイルロボットをナビゲートする準備が整っていないことを約束している。
我々は,下向きカメラを備えたマイクロエアロゾル車両(MAV)用に設計された,頑健で効率的な単眼視覚慣性眼振計(VIO)CUAHN-VIOを提案する。
CUAHN-VIOは、高速なパブリックデータセットで評価され、最先端(SOTA)VIOアプローチと競合する精度を示す。
- 参考スコア(独自算出の注目度): 17.26743944652844
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning-based visual ego-motion estimation is promising yet not ready for
navigating agile mobile robots in the real world. In this article, we propose
CUAHN-VIO, a robust and efficient monocular visual-inertial odometry (VIO)
designed for micro aerial vehicles (MAVs) equipped with a downward-facing
camera. The vision frontend is a content-and-uncertainty-aware homography
network (CUAHN) that is robust to non-homography image content and failure
cases of network prediction. It not only predicts the homography transformation
but also estimates its uncertainty. The training is self-supervised, so that it
does not require ground truth that is often difficult to obtain. The network
has good generalization that enables "plug-and-play" deployment in new
environments without fine-tuning. A lightweight extended Kalman filter (EKF)
serves as the VIO backend and utilizes the mean prediction and variance
estimation from the network for visual measurement updates. CUAHN-VIO is
evaluated on a high-speed public dataset and shows rivaling accuracy to
state-of-the-art (SOTA) VIO approaches. Thanks to the robustness to motion
blur, low network inference time (~23ms), and stable processing latency
(~26ms), CUAHN-VIO successfully runs onboard an Nvidia Jetson TX2 embedded
processor to navigate a fast autonomous MAV.
- Abstract(参考訳): 学習ベースのビジュアルエゴモーション推定は、現実世界でアジャイルなモバイルロボットをナビゲートする準備ができていないと約束されている。
本稿では,下向きカメラを備えたマイクロエアロ車両(MAV)用に設計された,頑健で効率的な単眼型視覚慣性眼振計CUAHN-VIOを提案する。
ビジョンフロントエンドは、非ホログラフィ画像の内容とネットワーク予測の障害ケースに対して堅牢な、コンテンツと不確実性を認識するホモグラフィネットワーク(CUAHN)である。
ホモグラフィ変換を予測するだけでなく、その不確かさを推定する。
訓練は自己監督されており、しばしば取得が難しい基礎的な真実を必要としない。
ネットワークは、微調整なしで新しい環境に"プラグ・アンド・プレイ"を展開できる優れた一般化を備えている。
軽量拡張カルマンフィルタ(EKF)は、VIOバックエンドとして機能し、ネットワークからの平均予測と分散推定を利用して、視覚計測の更新を行う。
CUAHN-VIOは、高速なパブリックデータセットで評価され、最先端(SOTA)VIOアプローチと競合する精度を示す。
動作の曖昧さ、ネットワークの推論時間(約23ms)、安定した処理遅延(約26ms)のおかげで、CUAHN-VIOはNvidia Jetson TX2組み込みプロセッサ上で高速なMAVをナビゲートすることに成功した。
関連論文リスト
- CASPFormer: Trajectory Prediction from BEV Images with Deformable
Attention [4.9349065371630045]
本研究では,空間化されたBird-Eye-View(BEV)画像からマルチモーダルな動作予測を行うことができるコンテキスト認識シーン予測変換器(CASPFormer)を提案する。
我々のシステムは、BEV画像を生成することができる上流認識モジュールと統合することができる。
我々は、nuScenesデータセット上でモデルを評価し、複数のメトリクスにまたがって最先端に到達していることを示す。
論文 参考訳(メタデータ) (2024-09-26T12:37:22Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - SA-NET.v2: Real-time vehicle detection from oblique UAV images with use
of uncertainty estimation in deep meta-learning [0.0]
本稿では,小さなトレーニングデータセットと深層メタラーニングに基づく斜めUAV画像に対するリアルタイム車両検出の問題点について考察する。
SA-Net.v2は、SA-CNNをベースとしたリアルタイム車両検出手法である。
実験の結果、SA-Net.v2は時系列の斜めUAV画像で有望な性能を達成した。
論文 参考訳(メタデータ) (2022-08-04T09:08:47Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision
Transformers [88.52500757894119]
自己注意に基づく視覚変換器(ViT)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)に代わる、非常に競争力のあるアーキテクチャとして登場した。
われわれはEdgeViTsを紹介した。これは新しい軽量ViTのファミリーで、注目に基づく視覚モデルが初めて、最高の軽量CNNと競合することを可能にする。
論文 参考訳(メタデータ) (2022-05-06T18:17:19Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - RAUM-VO: Rotational Adjusted Unsupervised Monocular Visual Odometry [0.0]
本稿では,フレーム間動き推定のためのモデルフリーなエピポーラ制約に基づくRAUM-VOを提案する。
RAUM-VOは、KITTIデータセット上の他の教師なしポーズネットワークと比較してかなり精度が向上している。
論文 参考訳(メタデータ) (2022-03-14T15:03:24Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - CNN-based Visual Ego-Motion Estimation for Fast MAV Maneuvers [5.721124285238146]
高速移動する単眼カメラからの画像間の相対的なポーズを予測する畳み込みニューラルネットワーク(CNN)について検討する。
本研究のネットワークは, モデルサイズが小さく, 推論速度も高い。
トレーニングやテスト用の画像は、リアルな動きのぼやけがあります。
論文 参考訳(メタデータ) (2021-01-06T01:20:29Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。