論文の概要: Grasp-type Recognition Leveraging Object Affordance
- arxiv url: http://arxiv.org/abs/2009.09813v1
- Date: Wed, 26 Aug 2020 08:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:14:00.437733
- Title: Grasp-type Recognition Leveraging Object Affordance
- Title(参考訳): オブジェクトアクダクタンスを利用したグラフ型認識
- Authors: Naoki Wake, Kazuhiro Sasabuchi, Katsushi Ikeuchi
- Abstract要約: ロボット教育における鍵となる課題は、単一のRGB画像とターゲットオブジェクト名を持つグリップ型認識である。
本稿では,各対象に対して事前の把握型分布を活用することで,学習に基づく認識を向上させるための,シンプルで効果的なパイプラインを提案する。
- 参考スコア(独自算出の注目度): 7.227058013536165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in robot teaching is grasp-type recognition with a single RGB
image and a target object name. Here, we propose a simple yet effective
pipeline to enhance learning-based recognition by leveraging a prior
distribution of grasp types for each object. In the pipeline, a convolutional
neural network (CNN) recognizes the grasp type from an RGB image. The
recognition result is further corrected using the prior distribution (i.e.,
affordance), which is associated with the target object name. Experimental
results showed that the proposed method outperforms both a CNN-only and an
affordance-only method. The results highlight the effectiveness of
linguistically-driven object affordance for enhancing grasp-type recognition in
robot teaching.
- Abstract(参考訳): ロボット教育における重要な課題は、単一のRGB画像とターゲットオブジェクト名を持つグリップ型認識である。
本稿では,各対象に対する把握型の事前分布を活用し,学習に基づく認識を促進するための簡易かつ効果的なパイプラインを提案する。
パイプラインでは、畳み込みニューラルネットワーク(CNN)がRGB画像からグリップタイプを認識する。
認識結果は、対象オブジェクト名に関連付けられた事前分布(即ち、余裕)を用いてさらに補正される。
実験の結果,提案手法はcnnのみの手法とアプライアンスのみの手法を上回った。
その結果,ロボット教育における把持型認識の強化に言語駆動型オブジェクトアフォーアンスの有効性が強調された。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Cycle-Correspondence Loss: Learning Dense View-Invariant Visual Features from Unlabeled and Unordered RGB Images [8.789674502390378]
本稿では、ビュー不変な高密度記述子学習のためのCCL(Cycle-Cor correspondingence Loss)を紹介する。
鍵となるアイデアは、新しい画像に対する予測を使って、有効なピクセル対応を自律的に検出することである。
評価の結果、他の自己教師付きRGB専用手法よりも優れており、教師付き手法の性能にアプローチしていることがわかった。
論文 参考訳(メタデータ) (2024-06-18T09:44:56Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Learning Common Rationale to Improve Self-Supervised Representation for
Fine-Grained Visual Recognition Problems [61.11799513362704]
我々は、インスタンスやクラスでよく見られる差別的手がかりを識別するための、追加のスクリーニングメカニズムの学習を提案する。
SSL目標から誘導されるGradCAMを単純に利用することで、共通な有理性検出器が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-03T02:07:40Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - DcnnGrasp: Towards Accurate Grasp Pattern Recognition with Adaptive
Regularizer Learning [13.08779945306727]
現在の最先端手法は、パターン認識に不可欠なオブジェクトのカテゴリ情報を無視している。
本稿では,物体分類と把握パターン認識の連成学習を実現するために,二分岐畳み込みニューラルネットワーク(DcnnGrasp)を提案する。
論文 参考訳(メタデータ) (2022-05-11T00:34:27Z) - Learning Consistency from High-quality Pseudo-labels for Weakly
Supervised Object Localization [7.602783618330373]
より一貫したローカライゼーションを学習するための2段階のアプローチを提案する。
まず,マスクを用いた擬似ラベル生成アルゴリズムを提案し,擬似教師付き学習手法を用いてオブジェクトの局所化ネットワークを初期化する。
第2段階では,分類識別に基づく疑似ラベルの信頼度を簡易かつ効果的に評価する手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T09:05:51Z) - Object Localization Through a Single Multiple-Model Convolutional Neural
Network with a Specific Training Approach [0.0]
光畳み込みニューラルネットワーク(cnn)に対して,画像に対する関心領域を決定するための特別訓練手法を提案する。
ほぼ全てのCNNベースの検出器は、固定された入力サイズ画像を使用し、様々なオブジェクトサイズを扱う場合、性能が低下する可能性がある。
論文 参考訳(メタデータ) (2021-03-24T16:52:01Z) - Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection [4.683939045230724]
現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
論文 参考訳(メタデータ) (2021-01-25T16:36:53Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。