論文の概要: Balancing the Budget: Feature Selection and Tracking for Multi-Camera
Visual-Inertial Odometry
- arxiv url: http://arxiv.org/abs/2109.05975v1
- Date: Mon, 13 Sep 2021 13:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:18:45.949129
- Title: Balancing the Budget: Feature Selection and Tracking for Multi-Camera
Visual-Inertial Odometry
- Title(参考訳): 予算のバランス:マルチカメラ・ビジュアル・慣性オドメトリーのための特徴選択と追跡
- Authors: Lintong Zhang, David Wisth, Marco Camurri, Maurice Fallon
- Abstract要約: 因子グラフ最適化に基づくマルチカメラビジュアル慣性オドメトリーシステムを提案する。
攻撃的な動きと突然の照明変化を伴う狭い廊下や暗い空間など、困難な環境における動き追跡に焦点をあてる。
- 参考スコア(独自算出の注目度): 3.441021278275805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a multi-camera visual-inertial odometry system based on factor
graph optimization which estimates motion by using all cameras simultaneously
while retaining a fixed overall feature budget. We focus on motion tracking in
challenging environments such as in narrow corridors and dark spaces with
aggressive motions and abrupt lighting changes. These scenarios cause
traditional monocular or stereo odometry to fail. While tracking motion across
extra cameras should theoretically prevent failures, it causes additional
complexity and computational burden. To overcome these challenges, we introduce
two novel methods to improve multi-camera feature tracking. First, instead of
tracking features separately in each camera, we track features continuously as
they move from one camera to another. This increases accuracy and achieves a
more compact factor graph representation. Second, we select a fixed budget of
tracked features which are spread across the cameras to ensure that the limited
computational budget is never exceeded. We have found that using a smaller set
of informative features can maintain the same tracking accuracy while reducing
back-end optimization time. Our proposed method was extensively tested using a
hardware-synchronized device containing an IMU and four cameras (a front stereo
pair and two lateral) in scenarios including an underground mine, large open
spaces, and building interiors with narrow stairs and corridors. Compared to
stereo-only state-of-the-art VIO methods, our approach reduces the drift rate
(RPE) by up to 80% in translation and 39% in rotation.
- Abstract(参考訳): 本稿では,全カメラを同時に使用して動作を推定する因子グラフ最適化に基づくマルチカメラ視覚慣性オドメトリシステムを提案する。
狭い廊下や暗い空間など,激しい動きや突然の照明変化を伴う困難な環境での動作追跡に注目した。
これらのシナリオでは、従来の単眼またはステレオオドメトリが失敗する。
余分なカメラを横切る動きを追跡することは理論的には失敗を防ぐが、さらなる複雑さと計算負荷を引き起こす。
これらの課題を克服するために,マルチカメラ機能トラッキングを改善する2つの新しい手法を提案する。
まず、各カメラの機能を別々に追跡する代わりに、あるカメラから別のカメラに移動する機能を継続的に追跡します。
これは精度を高め、よりコンパクトな因子グラフ表現を実現する。
第2に、限られた計算予算が決して超えないことを保証するために、カメラ全体に分散する追跡機能に関する固定予算を選択する。
より小さな情報的機能セットを使用することで、バックエンドの最適化時間を短縮しながら、同じトラッキング精度を維持できることが分かりました。
提案手法は,IMUと4台のカメラ(前方ステレオ対と2つの側面)を内蔵したハードウェア同期装置を用いて,地下鉱山,大型オープンスペース,狭い階段と廊下を備えた内部の建築シナリオにおいて広範囲に試験を行った。
ステレオオンリーのVIO法と比較して, ドリフト率(RPE)を最大80%, 回転率39%削減する。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Improved Single Camera BEV Perception Using Multi-Camera Training [4.003066044908734]
大規模生産において、コスト効率は最適化の目標であり、カメラの使用を減らすことがより重要になる。
これにより、低コストのセンサー設定で十分な性能を提供するBEV知覚モデルの開発が問題となる。
本研究の目的は,最新のマルチカメラサラウンドビューモデルを用いて,上記の性能低下を極力低減することである。
論文 参考訳(メタデータ) (2024-09-04T13:06:40Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - CoMo: A novel co-moving 3D camera system [0.0]
CoMoは2台の同期高速カメラと回転ステージを組み合わせた共同移動カメラシステムである。
本稿では,システム"ホーム"構成において,カメラの位置とヨー,ピッチ,ロールの3つの角度を測定する外部パラメータのキャリブレーションについて述べる。
本研究では,3次元実験において,再現および測定した3次元距離を1%の相対誤差で比較することにより,システムのロバスト性と精度を評価する。
論文 参考訳(メタデータ) (2021-01-26T13:29:13Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。