論文の概要: Learn Fast, Segment Well: Fast Object Segmentation Learning on the iCub
Robot
- arxiv url: http://arxiv.org/abs/2206.13462v1
- Date: Mon, 27 Jun 2022 17:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:35:19.814378
- Title: Learn Fast, Segment Well: Fast Object Segmentation Learning on the iCub
Robot
- Title(参考訳): 高速学習とセグメント化: icubロボットによる高速オブジェクトセグメンテーション学習
- Authors: Federico Ceola, Elisa Maiettini, Giulia Pasquale, Giacomo Meanti,
Lorenzo Rosasco, Lorenzo Natale
- Abstract要約: 我々は、新しいオブジェクトや異なるドメインの存在下で、オブジェクトセグメンテーションモデルに適応できる様々な技術について研究する。
データをストリーム化するロボットアプリケーションのための高速なインスタンスセグメンテーション学習のためのパイプラインを提案する。
提案したパイプラインを2つのデータセットでベンチマークし、実際のロボットであるiCubヒューマノイドにデプロイする。
- 参考スコア(独自算出の注目度): 20.813028212068424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visual system of a robot has different requirements depending on the
application: it may require high accuracy or reliability, be constrained by
limited resources or need fast adaptation to dynamically changing environments.
In this work, we focus on the instance segmentation task and provide a
comprehensive study of different techniques that allow adapting an object
segmentation model in presence of novel objects or different domains. We
propose a pipeline for fast instance segmentation learning designed for robotic
applications where data come in stream. It is based on an hybrid method
leveraging on a pre-trained CNN for feature extraction and fast-to-train
Kernel-based classifiers. We also propose a training protocol that allows to
shorten the training time by performing feature extraction during the data
acquisition. We benchmark the proposed pipeline on two robotics datasets and we
deploy it on a real robot, i.e. the iCub humanoid. To this aim, we adapt our
method to an incremental setting in which novel objects are learned on-line by
the robot. The code to reproduce the experiments is publicly available on
GitHub.
- Abstract(参考訳): ロボットの視覚システムは、アプリケーションによって異なる要件を持つ:高い正確性や信頼性、限られたリソースによる制約、動的に変化する環境への迅速な適応を必要とする。
本稿では,インスタンスセグメンテーションタスクに着目し,新しいオブジェクトや異なるドメインの存在下でオブジェクトセグメンテーションモデルを適用することが可能な,さまざまなテクニックの包括的研究を行う。
我々は,データが流れてくるロボットアプリケーション用に設計された高速インスタンスセグメンテーション学習用パイプラインを提案する。
この手法は,事前学習したCNNを用いて特徴抽出と高速なカーネルベース分類を行うハイブリッド手法に基づいている。
また,データ取得時に特徴抽出を行うことで,学習時間を短縮できるトレーニングプロトコルを提案する。
提案したパイプラインを2つのロボットデータセット上でベンチマークし、実際のロボット、すなわちiCubのヒューマノイドにデプロイする。
そこで本研究では,ロボットが新しい物体をオンラインに学習するインクリメンタルな環境に,本手法を適用した。
実験を再現するコードはgithubで公開されている。
関連論文リスト
- Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers [41.069074375686164]
本稿では、政策ニューラルネットワークのトランクを事前訓練してタスクを学習し、共有表現を具体化する異種事前学習トランスフォーマー(HPT)を提案する。
52データセットの範囲で,トレーニング対象のスケーリング行動を調べる実験を行った。
HPTはいくつかのベースラインを上回り、未確認タスクで20%以上の微調整されたポリシー性能を向上させる。
論文 参考訳(メタデータ) (2024-09-30T17:39:41Z) - Scaling Manipulation Learning with Visual Kinematic Chain Prediction [32.99644520625179]
本研究では,多様な環境下でのロボット学習における準静的動作の高精度かつ普遍的な表現として,視覚キネマティクス連鎖を提案する。
我々は,Calvin,RLBench,Open-X,および実際のロボット操作タスクにおいて,BC変換器に対するVKTの優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-12T03:10:27Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Fast Object Segmentation Learning with Kernel-based Methods for Robotics [21.48920421574167]
オブジェクトセグメンテーションは、把握やオブジェクト操作といったタスクを実行するロボットの視覚システムにおいて重要なコンポーネントである。
本稿では,オブジェクトセグメンテーションのための新しいアーキテクチャを提案する。これはこの問題を克服し,最先端の手法で必要とされる時間に匹敵する性能を提供する。
本手法はコンピュータビジョンとロボティクスのコミュニティで広く採用されているYCB-Videoデータセットで検証されている。
論文 参考訳(メタデータ) (2020-11-25T15:07:39Z) - Fast Region Proposal Learning for Object Detection for Robotics [21.48920421574167]
本稿では,ディープラーニング記述子の強力な表現を活用するアーキテクチャを提案する。
本稿では,タスクの領域候補生成に加えて,適用によってさらに精度が向上できることを実証する。
論文 参考訳(メタデータ) (2020-11-25T14:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。