論文の概要: Online Refinement of a Scene Recognition Model for Mobile Robots by
Observing Human's Interaction with Environments
- arxiv url: http://arxiv.org/abs/2208.06636v1
- Date: Sat, 13 Aug 2022 12:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:40:42.140448
- Title: Online Refinement of a Scene Recognition Model for Mobile Robots by
Observing Human's Interaction with Environments
- Title(参考訳): 人間と環境の相互作用を観察した移動ロボットのシーン認識モデルのオンライン改善
- Authors: Shigemichi Matsuzaki, Hiroaki Masuzawa, Jun Miura
- Abstract要約: シーン認識システムでは、障害として認識される移動可能な植物のためにロボットが立ち往生してしまう可能性がある。
本研究では,ロボットの操作中に,フライ時に意味的セグメンテーションモデルを書き換えるフレームワークを提案する。
微調整を伴わないオンラインモデル改良のための重み付けインプリンティングに基づく数ショットセグメンテーションを提案する。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes a method of online refinement of a scene recognition
model for robot navigation considering traversable plants, flexible plant parts
which a robot can push aside while moving. In scene recognition systems that
consider traversable plants growing out to the paths, misclassification may
lead the robot to getting stuck due to the traversable plants recognized as
obstacles. Yet, misclassification is inevitable in any estimation methods. In
this work, we propose a framework that allows for refining a semantic
segmentation model on the fly during the robot's operation. We introduce a
few-shot segmentation based on weight imprinting for online model refinement
without fine-tuning. Training data are collected via observation of a human's
interaction with the plant parts. We propose novel robust weight imprinting to
mitigate the effect of noise included in the masks generated by the
interaction. The proposed method was evaluated through experiments using
real-world data and shown to outperform an ordinary weight imprinting and
provide competitive results to fine-tuning with model distillation while
requiring less computational cost.
- Abstract(参考訳): 本稿では,移動中にロボットが押し付けるフレキシブルな植物部品を考慮した,ロボットナビゲーションのためのシーン認識モデルのオンライン改良手法について述べる。
移動可能な植物が経路に成長すると考えるシーン認識システムでは、障害として認識される移動可能な植物のためにロボットが立ち往生する可能性がある。
しかし、どんな推定方法でも誤分類は避けられない。
本研究では,ロボットの動作中に,意味的セグメンテーションモデルをオンザフライで洗練することができるフレームワークを提案する。
微調整なしでオンラインモデル改良のための重量インプリントに基づく数ショットセグメンテーションを導入する。
トレーニングデータは、人間の植物部位との相互作用を観察することで収集される。
相互作用によって生じるマスクに含まれるノイズの影響を軽減するために、新しい頑健な重量印字を提案する。
提案手法は実世界のデータを用いた実験により評価され, 通常の重量印字よりも優れており, 計算コストの低減を図りながら, モデル蒸留による微調整と競合する結果が得られた。
関連論文リスト
- Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven
Approach [51.75186763756072]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Counterfactual Explanation and Causal Inference in Service of Robustness
in Robot Control [15.104159722499366]
我々は「事象AがCの代わりにBを引き起こすように変更できるか?」という形式の逆実数条件の生成モデルを訓練するためのアーキテクチャを提案する。
従来の制御設計手法とは対照的に、ノイズを除去する能力の観点から頑健さを定量化する手法では、ある要件に違反する可能性のある反事実の空間を探索する。
論文 参考訳(メタデータ) (2020-09-18T14:22:47Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。