論文の概要: COVINS-G: A Generic Back-end for Collaborative Visual-Inertial SLAM
- arxiv url: http://arxiv.org/abs/2301.07147v3
- Date: Fri, 5 May 2023 08:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:13:37.182507
- Title: COVINS-G: A Generic Back-end for Collaborative Visual-Inertial SLAM
- Title(参考訳): COVINS-G:コラボレーション型ビジュアル慣性SLAMのための汎用バックエンド
- Authors: Manthan Patel, Marco Karrer, Philipp B\"anninger and Margarita Chli
- Abstract要約: 協調的SLAMは、マルチロボットシステムにおける知覚のコアである。
CoVINS-Gは、COVINSフレームワークをベースにした汎用バックエンドビルディングである。
我々は、最先端のマルチセッションおよび協調SLAMシステムを用いて、オンパー精度を示す。
- 参考スコア(独自算出の注目度): 13.190581566723917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative SLAM is at the core of perception in multi-robot systems as it
enables the co-localization of the team of robots in a common reference frame,
which is of vital importance for any coordination amongst them. The paradigm of
a centralized architecture is well established, with the robots (i.e. agents)
running Visual-Inertial Odometry (VIO) onboard while communicating relevant
data, such as e.g. Keyframes (KFs), to a central back-end (i.e. server), which
then merges and optimizes the joint maps of the agents. While these frameworks
have proven to be successful, their capability and performance are highly
dependent on the choice of the VIO front-end, thus limiting their flexibility.
In this work, we present COVINS-G, a generalized back-end building upon the
COVINS framework, enabling the compatibility of the server-back-end with any
arbitrary VIO front-end, including, for example, off-the-shelf cameras with
odometry capabilities, such as the Realsense T265. The COVINS-G back-end
deploys a multi-camera relative pose estimation algorithm for computing the
loop-closure constraints allowing the system to work purely on 2D image data.
In the experimental evaluation, we show on-par accuracy with state-of-the-art
multi-session and collaborative SLAM systems, while demonstrating the
flexibility and generality of our approach by employing different front-ends
onboard collaborating agents within the same mission. The COVINS-G codebase
along with a generalized front-end wrapper to allow any existing VIO front-end
to be readily used in combination with the proposed collaborative back-end is
open-sourced. Video: https://youtu.be/FoJfXCfaYDw
- Abstract(参考訳): 協調的なslamは、ロボットチームの共通参照フレームにおけるコローカライゼーションを可能にするため、マルチロボットシステムにおける認識の核心である。
集中型アーキテクチャのパラダイムは確立されており、例えば、キーフレーム(KF)のような関連するデータを中央のバックエンド(サーバ)に通信しながら、視覚慣性オドメトリー(VIO)を搭載中のロボット(エージェント)が統合し、エージェントの関節マップを最適化する。
これらのフレームワークは成功したことが証明されているが、その能力と性能はVIOフロントエンドの選択に大きく依存しているため、柔軟性が制限される。
本研究では,COVINSフレームワークをベースとした汎用バックエンドビルディングであるCOVINS-Gを紹介し,例えばRealsense T265のようなオドメトリ機能を備えたオフザシェルカメラを含む任意のVIOフロントエンドとのサーババックエンドの互換性を実現する。
COVINS-Gバックエンドは、ループ閉鎖制約を計算するためのマルチカメラ相対ポーズ推定アルゴリズムをデプロイし、システムは2D画像データ上で純粋に動作する。
実験評価では,最先端のマルチセッション・コラボレーティブslamシステムと同等の精度を示すとともに,同一ミッション内で異なるフロントエンドを連携エージェントとして使用することにより,我々のアプローチの柔軟性と汎用性を実証した。
COVINS-Gコードベースと一般化されたフロントエンドラッパーは、提案された共同バックエンドと組み合わせて、既存のVIOフロントエンドを簡単に使用できるようにする。
ビデオ: https://youtu.be/FoJfXCfaYDw
関連論文リスト
- Revisiting the Integration of Convolution and Attention for Vision Backbone [59.50256661158862]
畳み込みとMHSA(Multi-head self-attentions)は一般的に、視覚バックボーンを構築するための代替手段であると考えられている。
そこで本研究では,MSHAとConvsを,異なる粒度レベルで並列的に使用することを提案する。
我々は,提案手法であるtextitGLMix の可能性を実証的に検証した。軽量なConvs に細粒度機能の負荷をオフロードすることで,いくつかのセマンティックスロットで MHSAs を使用するのに十分である。
論文 参考訳(メタデータ) (2024-11-21T18:59:08Z) - Unveiling the Backbone-Optimizer Coupling Bias in Visual Representation Learning [54.956037293979506]
本論文は、視覚バックボーンと視覚バックボーンの相互作用と、その相互依存現象であるtextittextbfbackbonetextbfoptimizer textbfcoupling textbfbias (BOCB) について述べる。
我々は、VGGやResNetのような標準CNNがSGDファミリとの顕著な共存を示すのに対し、ViTsやConvNeXtといった最近のアーキテクチャは適応学習率と密接な結合性を持っていることを観察する。
論文 参考訳(メタデータ) (2024-10-08T21:14:23Z) - IFTR: An Instance-Level Fusion Transformer for Visual Collaborative Perception [9.117534139771738]
自律運転の分野で広く認知されている技術として、マルチエージェント協調認識が出現している。
現在のコラボレーティブな認識は、主にLiDAR点雲に依存しており、カメラ画像を用いた手法にはあまり注目されていない。
本研究は,視覚的協調知覚のためのインスタンスレベルの融合変換器を提案する。
論文 参考訳(メタデータ) (2024-07-13T11:38:15Z) - Self-Localized Collaborative Perception [49.86110931859302]
我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
論文 参考訳(メタデータ) (2024-06-18T15:26:54Z) - What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - Collaborative Multi-Agent Video Fast-Forwarding [30.843484383185473]
分散および集中型設定における協調的マルチエージェントビデオ高速転送フレームワークを2つ開発する。
これらのフレームワークでは、各エージェントは、複数の戦略に基づいて、調整可能なペースで、ビデオフレームを選択的に処理またはスキップすることができる。
文献の他のアプローチと比較して、フレームワークは重要なフレームのカバレッジを向上し、各エージェントで処理されるフレームの数を著しく削減する。
論文 参考訳(メタデータ) (2023-05-27T20:12:19Z) - COVINS: Visual-Inertial SLAM for Centralized Collaboration [11.65456841016608]
協調的SLAMは、エージェントのグループが同時に環境を局所化し、共同でマッピングすることを可能にする。
本稿では,大規模環境においてマルチエージェントでスケーラブルなSLAMを実現する,新しい協調SLAMシステムであるCOVINSについて述べる。
論文 参考訳(メタデータ) (2021-08-12T13:50:44Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。