論文の概要: Remote Task-oriented Grasp Area Teaching By Non-Experts through
Interactive Segmentation and Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2303.10195v1
- Date: Fri, 17 Mar 2023 18:09:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:51:07.856554
- Title: Remote Task-oriented Grasp Area Teaching By Non-Experts through
Interactive Segmentation and Few-Shot Learning
- Title(参考訳): 対話型セグメンテーションとマイズショット学習による非専門家による遠隔タスク指向把握領域指導
- Authors: Furkan Kaynar, Sudarshan Rajagopalan, Shaobo Zhou, Eckehard Steinbach
- Abstract要約: ロボットは、将来的な操作タスクに応じて、異なる把握スタイルを区別できなければならない。
この目的に向けて,新しい2段階の枠組みを提案する。
対話型セグメンテーションによる新しいタスクの把握領域のデモンストレーションを受信する。
これらのいくつかの実演から学習し、与えられたタスクの目に見えないシーンにおいて、必要な把握領域を推定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robot operating in unstructured environments must be able to discriminate
between different grasping styles depending on the prospective manipulation
task. Having a system that allows learning from remote non-expert
demonstrations can very feasibly extend the cognitive skills of a robot for
task-oriented grasping. We propose a novel two-step framework towards this aim.
The first step involves grasp area estimation by segmentation. We receive grasp
area demonstrations for a new task via interactive segmentation, and learn from
these few demonstrations to estimate the required grasp area on an unseen scene
for the given task. The second step is autonomous grasp estimation in the
segmented region. To train the segmentation network for few-shot learning, we
built a grasp area segmentation (GAS) dataset with 10089 images grouped into
1121 segmentation tasks. We benefit from an efficient meta learning algorithm
for training for few-shot adaptation. Experimental evaluation showed that our
method successfully detects the correct grasp area on the respective objects in
unseen test scenes and effectively allows remote teaching of new grasp
strategies by non-experts.
- Abstract(参考訳): 非構造環境で動作するロボットは、予測操作タスクに応じて異なる把持スタイルを区別できなければならない。
遠隔の非専門家のデモンストレーションから学習できるシステムを持つことは、タスク指向の把握のためにロボットの認知スキルを非常に拡張することができる。
この目的に向けて,新たな二段階フレームワークを提案する。
最初のステップは、セグメンテーションによる領域推定の把握である。
対話的なセグメンテーションによって新しいタスクの把握領域のデモンストレーションを受け、これらの少数のデモから学習し、与えられたタスクの見えないシーンで必要な把握領域を推定する。
第2のステップは、セグメント領域における自律的把握推定である。
マイナショット学習のためのセグメンテーションネットワークをトレーニングするために,10089のイメージを1121のセグメンテーションタスクにグループ化した把握領域セグメンテーション(gas)データセットを構築した。
能率的なメタ学習アルゴリズムの利点は,数発適応のための学習である。
実験により,本手法は未確認テストシーンにおける各物体の正しい把握領域の検出に成功し,非専門家による新たな把握戦略の遠隔指導を可能にした。
関連論文リスト
- Self-supervised Learning via Cluster Distance Prediction for Operating Room Context Awareness [44.15562068190958]
オペレーティングルームでは、セマンティックセグメンテーションは、臨床環境を認識したロボットを作るための中核である。
最先端のセマンティックセグメンテーションとアクティビティ認識アプローチは、スケーラブルではない、完全に管理されている。
ToFカメラで撮影したORシーン画像を利用したORシーン理解のための新しい3次元自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2024-07-07T17:17:52Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Language-Conditioned Change-point Detection to Identify Sub-Tasks in
Robotics Domains [43.96051384180866]
言語命令を用いて,実証されたロボット軌道内のサブタスクを同定する。
本稿では,問題のサブタスクを識別する言語条件の変更点検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T21:40:34Z) - Towards Deeply Unified Depth-aware Panoptic Segmentation with
Bi-directional Guidance Learning [63.63516124646916]
深度認識型パノプティックセグメンテーションのためのフレームワークを提案する。
本稿では,クロスタスク機能学習を容易にする双方向指導学習手法を提案する。
本手法は,Cityscapes-DVPS と SemKITTI-DVPS の両データセットを用いた深度認識型パノプティックセグメンテーションのための新しい手法である。
論文 参考訳(メタデータ) (2023-07-27T11:28:33Z) - GenCo: An Auxiliary Generator from Contrastive Learning for Enhanced
Few-Shot Learning in Remote Sensing [9.504503675097137]
我々は、バックボーンを事前訓練し、同時に特徴サンプルの変種を探索するジェネレータベースのコントラスト学習フレームワーク(GenCo)を導入する。
微調整では、補助ジェネレータを使用して、特徴空間内の限られたラベル付きデータサンプルを濃縮することができる。
本稿では,2つの重要なリモートセンシングデータセットにおいて,この手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-27T03:59:19Z) - AIMS: All-Inclusive Multi-Level Segmentation [93.5041381700744]
視覚領域を3つのレベル(パート、エンティティ、リレーション)に分割するタスクであるAll-Inclusive Multi-Level(AIMS)を提案する。
また、アノテーションの不整合とタスク相関の2つの大きな課題に対処するために、マルチデータセットのマルチタスクトレーニングを通じて統合されたAIMSモデルを構築します。
論文 参考訳(メタデータ) (2023-05-28T16:28:49Z) - A Multi-Task Deep Learning Approach for Sensor-based Human Activity
Recognition and Segmentation [4.987833356397567]
本稿では,この2つの課題を同時に解くために,新しいディープニューラルネットワークを提案する。
提案するネットワークは,選択的畳み込みを採用し,長時間ないし短時間の動作を分割するマルチスケールウィンドウを備えている。
提案手法は,アクティビティ認識とセグメンテーションの両方において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-20T13:34:28Z) - Self-supervised Pre-training for Semantic Segmentation in an Indoor
Scene [8.357801312689622]
本稿ではセグメンテーションモデルの自己教師型事前学習手法であるRegConsistを提案する。
我々は,対象環境におけるRGBビューからのセマンティックセグメンテーションを予測するために,コントラスト学習の変種を用いてDCNNモデルを訓練する。
提案手法は、ImageNetで事前訓練されたモデルよりも優れており、全く同じタスクでトレーニングされたモデルと異なるデータセットでトレーニングされたモデルを使用する場合の競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-04T20:10:14Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。