論文の概要: COVINS-G: A Generic Back-end for Collaborative Visual-Inertial SLAM
- arxiv url: http://arxiv.org/abs/2301.07147v3
- Date: Fri, 5 May 2023 08:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:13:37.182507
- Title: COVINS-G: A Generic Back-end for Collaborative Visual-Inertial SLAM
- Title(参考訳): COVINS-G:コラボレーション型ビジュアル慣性SLAMのための汎用バックエンド
- Authors: Manthan Patel, Marco Karrer, Philipp B\"anninger and Margarita Chli
- Abstract要約: 協調的SLAMは、マルチロボットシステムにおける知覚のコアである。
CoVINS-Gは、COVINSフレームワークをベースにした汎用バックエンドビルディングである。
我々は、最先端のマルチセッションおよび協調SLAMシステムを用いて、オンパー精度を示す。
- 参考スコア(独自算出の注目度): 13.190581566723917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative SLAM is at the core of perception in multi-robot systems as it
enables the co-localization of the team of robots in a common reference frame,
which is of vital importance for any coordination amongst them. The paradigm of
a centralized architecture is well established, with the robots (i.e. agents)
running Visual-Inertial Odometry (VIO) onboard while communicating relevant
data, such as e.g. Keyframes (KFs), to a central back-end (i.e. server), which
then merges and optimizes the joint maps of the agents. While these frameworks
have proven to be successful, their capability and performance are highly
dependent on the choice of the VIO front-end, thus limiting their flexibility.
In this work, we present COVINS-G, a generalized back-end building upon the
COVINS framework, enabling the compatibility of the server-back-end with any
arbitrary VIO front-end, including, for example, off-the-shelf cameras with
odometry capabilities, such as the Realsense T265. The COVINS-G back-end
deploys a multi-camera relative pose estimation algorithm for computing the
loop-closure constraints allowing the system to work purely on 2D image data.
In the experimental evaluation, we show on-par accuracy with state-of-the-art
multi-session and collaborative SLAM systems, while demonstrating the
flexibility and generality of our approach by employing different front-ends
onboard collaborating agents within the same mission. The COVINS-G codebase
along with a generalized front-end wrapper to allow any existing VIO front-end
to be readily used in combination with the proposed collaborative back-end is
open-sourced. Video: https://youtu.be/FoJfXCfaYDw
- Abstract(参考訳): 協調的なslamは、ロボットチームの共通参照フレームにおけるコローカライゼーションを可能にするため、マルチロボットシステムにおける認識の核心である。
集中型アーキテクチャのパラダイムは確立されており、例えば、キーフレーム(KF)のような関連するデータを中央のバックエンド(サーバ)に通信しながら、視覚慣性オドメトリー(VIO)を搭載中のロボット(エージェント)が統合し、エージェントの関節マップを最適化する。
これらのフレームワークは成功したことが証明されているが、その能力と性能はVIOフロントエンドの選択に大きく依存しているため、柔軟性が制限される。
本研究では,COVINSフレームワークをベースとした汎用バックエンドビルディングであるCOVINS-Gを紹介し,例えばRealsense T265のようなオドメトリ機能を備えたオフザシェルカメラを含む任意のVIOフロントエンドとのサーババックエンドの互換性を実現する。
COVINS-Gバックエンドは、ループ閉鎖制約を計算するためのマルチカメラ相対ポーズ推定アルゴリズムをデプロイし、システムは2D画像データ上で純粋に動作する。
実験評価では,最先端のマルチセッション・コラボレーティブslamシステムと同等の精度を示すとともに,同一ミッション内で異なるフロントエンドを連携エージェントとして使用することにより,我々のアプローチの柔軟性と汎用性を実証した。
COVINS-Gコードベースと一般化されたフロントエンドラッパーは、提案された共同バックエンドと組み合わせて、既存のVIOフロントエンドを簡単に使用できるようにする。
ビデオ: https://youtu.be/FoJfXCfaYDw
関連論文リスト
- Efficient Cloud-edge Collaborative Inference for Object
Re-identification [27.952445808987036]
我々は、ReIDシステムのためのクラウド-エッジ協調推論フレームワークを開拓した。
本稿では,クラウドサーバに所望の画像を返すために,分散対応相関モデルネットワーク(DaCM)を提案する。
DaCMは、タイムスタンプに暗黙的に含まれている空間的時間的相関関係をグラフ構造に埋め込んで、アップロードウィンドウのサイズを調整するためにクラウドに適用することができる。
論文 参考訳(メタデータ) (2024-01-04T02:56:50Z) - APGL4SR: A Generic Framework with Adaptive and Personalized Global
Collaborative Information in Sequential Recommendation [86.29366168836141]
逐次推薦のための適応およびパーソナライズされたグラフ学習(APGL4SR)というグラフ駆動型フレームワークを提案する。
APGL4SRは、適応的でパーソナライズされたグローバルな協調情報をシーケンシャルレコメンデーションシステムに組み込む。
一般的なフレームワークとして、APGL4SRは大きなマージンを持つ他のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-06T01:33:24Z) - MACP: Efficient Model Adaptation for Cooperative Perception [23.308578463976804]
協調機能を備えた単エージェント事前学習モデルを備えたMACPという新しいフレームワークを提案する。
提案手法は,協調観測を効果的に活用し,他の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-10-25T14:24:42Z) - Structured Cooperative Learning with Graphical Model Priors [98.53322192624594]
ローカルデータに制限のある分散デバイス上で、さまざまなタスクに対してパーソナライズされたモデルをトレーニングする方法を研究する。
本稿では,デバイス間の協調グラフをグラフィカルモデルにより生成する「構造化協調学習(SCooL)」を提案する。
SCooLを評価し,既存の分散学習手法と比較した。
論文 参考訳(メタデータ) (2023-06-16T02:41:31Z) - Collaborative Multi-Agent Video Fast-Forwarding [30.843484383185473]
分散および集中型設定における協調的マルチエージェントビデオ高速転送フレームワークを2つ開発する。
これらのフレームワークでは、各エージェントは、複数の戦略に基づいて、調整可能なペースで、ビデオフレームを選択的に処理またはスキップすることができる。
文献の他のアプローチと比較して、フレームワークは重要なフレームのカバレッジを向上し、各エージェントで処理されるフレームの数を著しく削減する。
論文 参考訳(メタデータ) (2023-05-27T20:12:19Z) - Plug-and-Play Regulators for Image-Text Matching [76.28522712930668]
微細な対応と視覚的セマンティックなアライメントの爆発は、画像とテキストのマッチングにおいて大きな可能性を秘めている。
我々は、メッセージ出力を効率的にエンコードして、コンテキストを自動生成し、モーダル表現を集約する、シンプルだが非常に効果的な2つのレギュレータを開発した。
MSCOCOとFlickr30Kデータセットの実験は、複数のモデルで印象的で一貫したR@1ゲインをもたらすことができることを実証している。
論文 参考訳(メタデータ) (2023-03-23T15:42:05Z) - Exploring Intra- and Inter-Video Relation for Surgical Semantic Scene
Segmentation [58.74791043631219]
セグメンテーション性能を高めるために,映像内および映像間関係を補完する新しいフレームワークSTswinCLを提案する。
本研究では,EndoVis18 ChallengeとCaDISデータセットを含む2つの公開手術ビデオベンチマークに対するアプローチを広く検証する。
実験により,従来の最先端手法を一貫して超越した提案手法の有望な性能を示す。
論文 参考訳(メタデータ) (2022-03-29T05:52:23Z) - COVINS: Visual-Inertial SLAM for Centralized Collaboration [11.65456841016608]
協調的SLAMは、エージェントのグループが同時に環境を局所化し、共同でマッピングすることを可能にする。
本稿では,大規模環境においてマルチエージェントでスケーラブルなSLAMを実現する,新しい協調SLAMシステムであるCOVINSについて述べる。
論文 参考訳(メタデータ) (2021-08-12T13:50:44Z) - OpenPifPaf: Composite Fields for Semantic Keypoint Detection and
Spatio-Temporal Association [90.39247595214998]
イメージベースの知覚タスクは、例えば、検出、関連付け、セマンティックキーポイントとして定式化することができる。
人間の体は 推定と追跡をする
一つの段階における意味的および時間的キーポイント関連を共同で検出する一般的な枠組みを提案する。
また,本手法は車や動物などのキーポイントのクラスに一般化し,総合的な知覚の枠組みを提供することを示す。
論文 参考訳(メタデータ) (2021-03-03T14:44:14Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。