論文の概要: Early Recall, Late Precision: Multi-Robot Semantic Object Mapping under
Operational Constraints in Perceptually-Degraded Environments
- arxiv url: http://arxiv.org/abs/2206.10062v1
- Date: Tue, 21 Jun 2022 01:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:50:13.182589
- Title: Early Recall, Late Precision: Multi-Robot Semantic Object Mapping under
Operational Constraints in Perceptually-Degraded Environments
- Title(参考訳): 早期リコール・後期精度:知覚劣化環境下での操作制約下でのマルチロボットセマンティックオブジェクトマッピング
- Authors: Xianmei Lei, Taeyeon Kim, Nicolas Marchal, Daniel Pastor, Barry Ridge,
Frederik Sch\"oller, Edward Terry, Fernando Chavez, Thomas Touma, Kyohei Otsu
and Ali Agha
- Abstract要約: 本稿では,この問題を解決するためにEarly Recall, Late Precision (EaRLaP)意味オブジェクトマッピングパイプラインを提案する。
EaRLaPはDARPA Subterranean ChallengeでTeam CoSTARによって使用された。
各種データセット上でのEaRLaPの結果と性能について論じる。
- 参考スコア(独自算出の注目度): 47.917640567924174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic object mapping in uncertain, perceptually degraded environments
during long-range multi-robot autonomous exploration tasks such as
search-and-rescue is important and challenging. During such missions, high
recall is desirable to avoid missing true target objects and high precision is
also critical to avoid wasting valuable operational time on false positives.
Given recent advancements in visual perception algorithms, the former is
largely solvable autonomously, but the latter is difficult to address without
the supervision of a human operator. However, operational constraints such as
mission time, computational requirements, mesh network bandwidth and so on, can
make the operator's task infeasible unless properly managed. We propose the
Early Recall, Late Precision (EaRLaP) semantic object mapping pipeline to solve
this problem. EaRLaP was used by Team CoSTAR in DARPA Subterranean Challenge,
where it successfully detected all the artifacts encountered by the team of
robots. We will discuss these results and performance of the EaRLaP on various
datasets.
- Abstract(参考訳): 探索・救助などの長距離マルチロボット自律探査作業における意味的オブジェクトマッピングは重要かつ困難である。
このようなミッションの間、高いリコールは真のターゲットオブジェクトの欠落を避けるのが望ましいし、偽陽性に対して貴重な運用時間を浪費することを避けるためにも高い精度が重要である。
視覚認識アルゴリズムの最近の進歩を踏まえると、前者は主に自律的に解けるが、後者は人間のオペレーターの監督なしには解決が難しい。
しかし、ミッション時間、計算要求、メッシュネットワーク帯域幅などの運用上の制約は、適切に管理されない限り、オペレータのタスクを無効にすることができる。
本稿では,この問題を解決するためにEarly Recall, Late Precision (EaRLaP)意味オブジェクトマッピングパイプラインを提案する。
earlapはdarpa subterranean challengeでチーム・コスター(team costar)が使用し、ロボットチームが遭遇したすべてのアーティファクトをうまく検出した。
各種データセット上でのEaRLaPの結果と性能について論じる。
関連論文リスト
- Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization [57.71118589124002]
継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れ込みを抑える新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - LiDAR-guided object search and detection in Subterranean Environments [12.265807098187297]
この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
論文 参考訳(メタデータ) (2022-10-26T19:38:19Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Domain Adaptation for Outdoor Robot Traversability Estimation from RGB
data with Safety-Preserving Loss [12.697106921197701]
本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測する深層学習に基づくアプローチを提案する。
次に、勾配反転非教師付き適応によるドメインシフトに対処することで、モデルの能力を向上する。
実験結果から,本手法は移動可能領域を良好に同定し,目に見えない場所に一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T09:19:33Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。