論文の概要: Online Refinement of a Scene Recognition Model for Mobile Robots by
Observing Human's Interaction with Environments
- arxiv url: http://arxiv.org/abs/2208.06636v1
- Date: Sat, 13 Aug 2022 12:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:40:42.140448
- Title: Online Refinement of a Scene Recognition Model for Mobile Robots by
Observing Human's Interaction with Environments
- Title(参考訳): 人間と環境の相互作用を観察した移動ロボットのシーン認識モデルのオンライン改善
- Authors: Shigemichi Matsuzaki, Hiroaki Masuzawa, Jun Miura
- Abstract要約: シーン認識システムでは、障害として認識される移動可能な植物のためにロボットが立ち往生してしまう可能性がある。
本研究では,ロボットの操作中に,フライ時に意味的セグメンテーションモデルを書き換えるフレームワークを提案する。
微調整を伴わないオンラインモデル改良のための重み付けインプリンティングに基づく数ショットセグメンテーションを提案する。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes a method of online refinement of a scene recognition
model for robot navigation considering traversable plants, flexible plant parts
which a robot can push aside while moving. In scene recognition systems that
consider traversable plants growing out to the paths, misclassification may
lead the robot to getting stuck due to the traversable plants recognized as
obstacles. Yet, misclassification is inevitable in any estimation methods. In
this work, we propose a framework that allows for refining a semantic
segmentation model on the fly during the robot's operation. We introduce a
few-shot segmentation based on weight imprinting for online model refinement
without fine-tuning. Training data are collected via observation of a human's
interaction with the plant parts. We propose novel robust weight imprinting to
mitigate the effect of noise included in the masks generated by the
interaction. The proposed method was evaluated through experiments using
real-world data and shown to outperform an ordinary weight imprinting and
provide competitive results to fine-tuning with model distillation while
requiring less computational cost.
- Abstract(参考訳): 本稿では,移動中にロボットが押し付けるフレキシブルな植物部品を考慮した,ロボットナビゲーションのためのシーン認識モデルのオンライン改良手法について述べる。
移動可能な植物が経路に成長すると考えるシーン認識システムでは、障害として認識される移動可能な植物のためにロボットが立ち往生する可能性がある。
しかし、どんな推定方法でも誤分類は避けられない。
本研究では,ロボットの動作中に,意味的セグメンテーションモデルをオンザフライで洗練することができるフレームワークを提案する。
微調整なしでオンラインモデル改良のための重量インプリントに基づく数ショットセグメンテーションを導入する。
トレーニングデータは、人間の植物部位との相互作用を観察することで収集される。
相互作用によって生じるマスクに含まれるノイズの影響を軽減するために、新しい頑健な重量印字を提案する。
提案手法は実世界のデータを用いた実験により評価され, 通常の重量印字よりも優れており, 計算コストの低減を図りながら, モデル蒸留による微調整と競合する結果が得られた。
関連論文リスト
- AdaCropFollow: Self-Supervised Online Adaptation for Visual Under-Canopy Navigation [31.214318150001947]
アンダーキャノピー農業ロボットは、精密なモニタリング、スプレー、雑草、植物操作などの様々な応用を可能にする。
本稿では,視覚的基礎モデル,幾何学的事前,擬似ラベリングを用いて意味キーポイント表現を適応するための自己教師付きオンライン適応手法を提案する。
これにより、人間による介入を必要とせずに、畑や作物をまたがるアンダーキャノピーロボットの完全な自律的な行追尾が可能になる。
論文 参考訳(メタデータ) (2024-10-16T09:52:38Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Navigating the Human Maze: Real-Time Robot Pathfinding with Generative Imitation Learning [0.0]
目標条件付き自己回帰モデルを導入し,個人間の複雑な相互作用を捉える。
このモデルは、潜在的なロボット軌道サンプルを処理し、周囲の個人の反応を予測する。
論文 参考訳(メタデータ) (2024-08-07T14:32:41Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。