論文の概要: Enhancing Multi-Robot Perception via Learned Data Association
- arxiv url: http://arxiv.org/abs/2107.00769v1
- Date: Thu, 1 Jul 2021 22:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 03:08:57.593075
- Title: Enhancing Multi-Robot Perception via Learned Data Association
- Title(参考訳): 学習データアソシエーションによるマルチロボット知覚の強化
- Authors: Nathaniel Glaser, Yen-Cheng Liu, Junjiao Tian, Zsolt Kira
- Abstract要約: 本稿では,マルチロボット協調認識問題,特に分散セマンティックセグメンテーションにおけるマルチビューインフィル問題に対処する。
本稿では,ロボット群において各エージェントにデプロイ可能なニューラルネットワークであるMulti-Agent Infilling Networkを提案する。
具体的には、各ロボットが視覚情報を局所的に符号化・復号し、ニューラルメカニズムにより、不確実性を認識し、文脈に基づく中間特徴の交換を可能にする。
- 参考スコア(独自算出の注目度): 37.866254392010454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we address the multi-robot collaborative perception problem,
specifically in the context of multi-view infilling for distributed semantic
segmentation. This setting entails several real-world challenges, especially
those relating to unregistered multi-agent image data. Solutions must
effectively leverage multiple, non-static, and intermittently-overlapping RGB
perspectives. To this end, we propose the Multi-Agent Infilling Network: an
extensible neural architecture that can be deployed (in a distributed manner)
to each agent in a robotic swarm. Specifically, each robot is in charge of
locally encoding and decoding visual information, and an extensible neural
mechanism allows for an uncertainty-aware and context-based exchange of
intermediate features. We demonstrate improved performance on a realistic
multi-robot AirSim dataset.
- Abstract(参考訳): 本稿では,分散セマンティクスセグメンテーションのためのマルチビューインフィルディングの文脈において,マルチロボット協調知覚問題に対処する。
この設定は、特に未登録のマルチエージェント画像データに関連するいくつかの現実世界の課題を伴っている。
ソリューションは、複数の非静的かつ断続的に重なり合うRGBの視点を効果的に活用する必要がある。
この目的のために,ロボット群内の各エージェントに(分散的に)展開可能な拡張可能なニューラルネットワークであるMulti-Agent Infilling Networkを提案する。
具体的には、各ロボットが視覚情報を局所的に符号化・復号し、拡張可能なニューラルメカニズムにより、不確実性とコンテキストに基づく中間的特徴の交換を可能にする。
現実的なマルチロボットAirSimデータセットの性能向上を示す。
関連論文リスト
- Distributed NeRF Learning for Collaborative Multi-Robot Perception [16.353043979615496]
マルチエージェントシステムは、環境のより包括的なマッピング、より高速なカバレッジ、耐障害性の向上を提供することができる。
本稿では,RGB画像からニューラルレイディアンス場(NeRF)を総合的に学習してシーンを表現できる協調型マルチエージェント認識システムを提案する。
本手法の有効性は,挑戦的な実世界のシーンを含むデータセットに対する広範な実験を通して示す。
論文 参考訳(メタデータ) (2024-09-30T13:45:50Z) - Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation [65.23793829741014]
Embodied-RAGは、非パラメトリックメモリシステムによるエンボディエージェントのモデルを強化するフレームワークである。
コアとなるEmbodied-RAGのメモリはセマンティックフォレストとして構成され、言語記述を様々なレベルで詳細に保存する。
Embodied-RAGがRAGをロボット領域に効果的にブリッジし、200以上の説明とナビゲーションクエリをうまく処理できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T21:44:11Z) - DeepInteraction++: Multi-Modality Interaction for Autonomous Driving [80.8837864849534]
我々は,モダリティごとの個別表現を学習し,維持することのできる,新しいモダリティインタラクション戦略を導入する。
DeepInteraction++はマルチモーダルなインタラクション・フレームワークであり、マルチモーダルな表現型インタラクション・エンコーダとマルチモーダルな予測型インタラクション・デコーダを特徴とする。
実験では,3次元物体検出とエンドツーエンドの自律走行の両方において,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-09T14:04:21Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Graph Neural Networks for Multi-Robot Active Information Acquisition [15.900385823366117]
基礎となるグラフを通して通信する移動ロボットのチームは、興味のある現象を表す隠れた状態を推定する。
既存のアプローチはスケーラブルではないか、動的現象に対処できないか、あるいは通信グラフの変化に対して堅牢でないかのどちらかです。
本稿では,グラフ表現上に情報を集約し,逐次決定を分散的に行う情報対応グラフブロックネットワーク(I-GBNet)を提案する。
論文 参考訳(メタデータ) (2022-09-24T21:45:06Z) - Multi-Robot Collaborative Perception with Graph Neural Networks [6.383576104583731]
汎用グラフニューラルネットワーク(GNN)を提案する。
提案手法は,単眼深度推定やセマンティックセグメンテーションなどの多視点視覚認識問題に対処できることを示す。
論文 参考訳(メタデータ) (2022-01-05T18:47:07Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Overcoming Obstructions via Bandwidth-Limited Multi-Agent Spatial
Handshaking [37.866254392010454]
本稿では,ロボット群全体で視覚情報を処理し,圧縮し,伝達するための,エンドツーエンドの学習可能なマルチエージェント空間ハンドシェイキングネットワークを提案する。
本手法は,強いベースラインに対して絶対11%のIoU改善を実現する。
論文 参考訳(メタデータ) (2021-07-01T22:56:47Z) - Graph Neural Networks for Decentralized Multi-Robot Submodular Action
Selection [101.38634057635373]
ロボットがチームサブモジュールの目的を最大化するために共同で行動を選択する必要があるアプリケーションに焦点を当てる。
分散通信によるサブモジュール化に向けた汎用学習アーキテクチャを提案する。
大規模ロボットネットワークによるアクティブターゲットカバレッジのシナリオにおいて、GNNベースの学習アプローチのパフォーマンスを実証します。
論文 参考訳(メタデータ) (2021-05-18T15:32:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。