論文の概要: One-Shot Informed Robotic Visual Search in the Wild
- arxiv url: http://arxiv.org/abs/2003.10010v2
- Date: Thu, 3 Sep 2020 07:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 05:34:06.913610
- Title: One-Shot Informed Robotic Visual Search in the Wild
- Title(参考訳): ワンショットインフォームドロボットによる野生の視覚探索
- Authors: Karim Koreitem, Florian Shkurti, Travis Manderson, Wei-Di Chang, Juan
Camilo Gamboa Higuera, Gregory Dudek
- Abstract要約: 本研究では,環境モニタリングのための映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、フィールドロボットの大多数は、未構造化の自然環境における監視タスクを実行しており、経路追跡を通じて、指定された経路ポイントのシーケンスをナビゲートしている。
そこで本研究では,ロボットの視覚的探索を視覚的類似度演算子を用いて視覚的ナビゲーションを実現する手法を提案する。
- 参考スコア(独自算出の注目度): 29.604267552742026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the task of underwater robot navigation for the purpose of
collecting scientifically relevant video data for environmental monitoring. The
majority of field robots that currently perform monitoring tasks in
unstructured natural environments navigate via path-tracking a pre-specified
sequence of waypoints. Although this navigation method is often necessary, it
is limiting because the robot does not have a model of what the scientist deems
to be relevant visual observations. Thus, the robot can neither visually search
for particular types of objects, nor focus its attention on parts of the scene
that might be more relevant than the pre-specified waypoints and viewpoints. In
this paper we propose a method that enables informed visual navigation via a
learned visual similarity operator that guides the robot's visual search
towards parts of the scene that look like an exemplar image, which is given by
the user as a high-level specification for data collection. We propose and
evaluate a weakly supervised video representation learning method that
outperforms ImageNet embeddings for similarity tasks in the underwater domain.
We also demonstrate the deployment of this similarity operator during informed
visual navigation in collaborative environmental monitoring scenarios, in
large-scale field trials, where the robot and a human scientist collaboratively
search for relevant visual content.
- Abstract(参考訳): 環境モニタリングのための科学的関連映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、未構造化の自然環境において監視タスクを行うフィールドロボットの大多数は、事前に指定された経路ポイントのシーケンスを追跡する経路をナビゲートする。
このナビゲーション手法は、しばしば必要だが、ロボットには科学者が関連する視覚観察と判断するもののモデルがないため、制限されている。
したがって、ロボットは特定の種類の物体を視覚的に検索することも、事前に特定された方向や視点よりも関連性のあるシーンの一部に注意を集中することもできない。
本稿では,ロボットの視覚探索を映像のように見える部分へ誘導する学習視覚類似度操作によるインフォームドビジュアルナビゲーションを実現する手法を提案する。
本研究では,水中領域における類似タスクに対して,ImageNetの埋め込みよりも優れた映像表現学習手法を提案する。
また,ロボットと人間の科学者が協調して関連する視覚コンテンツを探索する大規模実験において,協調環境モニタリングシナリオにおけるインフォームド・ビジュアルナビゲーションにおけるこの類似性操作の展開を実証した。
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - CARPE-ID: Continuously Adaptable Re-identification for Personalized
Robot Assistance [16.948256303861022]
今日のHuman-Robot Interaction(HRI)のシナリオでは、ロボットが最も近い個人と協力する必要があると仮定する傾向が一般的である。
連続的な視覚適応技術に基づく人物識別モジュールを提案する。
実験室環境におけるビデオ記録と,移動ロボットによるHRIシナリオを用いて,このフレームワークを単体でテストする。
論文 参考訳(メタデータ) (2023-10-30T10:24:21Z) - Learning Hierarchical Interactive Multi-Object Search for Mobile
Manipulation [10.21450780640562]
本稿では,ロボットが扉を開けて部屋をナビゲートし,キャビネットや引き出しの中を探索し,対象物を見つける,インタラクティブな多目的探索タスクを提案する。
これらの新たな課題は、探索されていない環境での操作とナビゲーションのスキルを組み合わせる必要がある。
本研究では,探索,ナビゲーション,操作のスキルを習得する階層的強化学習手法であるHIMOSを提案する。
論文 参考訳(メタデータ) (2023-07-12T12:25:33Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Embodied Agents for Efficient Exploration and Smart Scene Description [47.82947878753809]
我々は、自律的なエージェントが見えない屋内環境を探索し、マッピングする必要がある視覚ナビゲーションの設定に取り組む。
本稿では,視覚ロボット探査と画像キャプションの最近の進歩を組み合わせたアプローチを提案し,評価する。
提案手法は,環境の意味的知識を最大化し,繰り返しを避けるスマートなシーン記述を生成する。
論文 参考訳(メタデータ) (2023-01-17T19:28:01Z) - Challenges in Visual Anomaly Detection for Mobile Robots [65.53820325712455]
視覚に基づく自律移動ロボットの異常検出作業について考察する。
関連した視覚異常の種類を分類し,教師なしの深層学習手法で検出する方法について議論する。
論文 参考訳(メタデータ) (2022-09-22T13:26:46Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Co-training for On-board Deep Object Detection [0.0]
人間のラベル付きバウンディングボックスを頼りにすることにより、最高のディープビジョンベースのオブジェクト検出器を教師付きで訓練する。
共同学習は、未ラベル画像における自己ラベルオブジェクトの半教師付き学習手法である。
我々は、協調学習がオブジェクトのラベル付けを緩和し、タスクに依存しないドメイン適応と単独で作業するためのパラダイムであることを示す。
論文 参考訳(メタデータ) (2020-08-12T19:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。