論文の概要: Contour Primitive of Interest Extraction Network Based on One-Shot
Learning for Object-Agnostic Vision Measurement
- arxiv url: http://arxiv.org/abs/2010.03325v2
- Date: Thu, 25 Mar 2021 02:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:38:38.569302
- Title: Contour Primitive of Interest Extraction Network Based on One-Shot
Learning for Object-Agnostic Vision Measurement
- Title(参考訳): 物体非依存視覚計測のためのワンショット学習に基づく興味抽出ネットワークの輪郭プリミティブ
- Authors: Fangbo Qin, Jie Qin, Siyu Huang, De Xu
- Abstract要約: 単発学習フレームワークに基づく利子抽出ネットワーク(CPieNet)の輪郭プリミティブを提案する。
新たなCPI抽出タスクのために,オンライン公開画像を用いたObject Contour Primitivesデータセットと,ロボットに搭載されたカメラを用いたRobotic Object Contour Measurementデータセットを構築した。
- 参考スコア(独自算出の注目度): 37.552192926136065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image contour based vision measurement is widely applied in robot
manipulation and industrial automation. It is appealing to realize
object-agnostic vision system, which can be conveniently reused for various
types of objects. We propose the contour primitive of interest extraction
network (CPieNet) based on the one-shot learning framework. First, CPieNet is
featured by that its contour primitive of interest (CPI) output, a designated
regular contour part lying on a specified object, provides the essential
geometric information for vision measurement. Second, CPieNet has the one-shot
learning ability, utilizing a support sample to assist the perception of the
novel object. To realize lower-cost training, we generate support-query sample
pairs from unpaired online public images, which cover a wide range of object
categories. To obtain single-pixel wide contour for precise measurement, the
Gabor-filters based non-maximum suppression is designed to thin the raw
contour. For the novel CPI extraction task, we built the Object Contour
Primitives dataset using online public images, and the Robotic Object Contour
Measurement dataset using a camera mounted on a robot. The effectiveness of the
proposed methods is validated by a series of experiments.
- Abstract(参考訳): 画像輪郭に基づく視覚計測はロボット操作や産業自動化に広く応用されている。
様々な種類の物体に対して便利に再利用できる物体認識型視覚システムを実現するのが魅力である。
本稿では,ワンショット学習の枠組みに基づいて,関心抽出ネットワーク(cpienet)の輪郭プリミティブを提案する。
まず、CPieNetは、特定の対象物に横たわっている指定された正則な輪郭部であるその輪郭プリミティブ(CPI)出力が、視覚計測に不可欠な幾何学的情報を提供するのが特徴である。
第2に、cpienetは、サポートサンプルを利用して、新しいオブジェクトの知覚を支援するワンショット学習能力を有する。
低コストなトレーニングを実現するために、さまざまな対象カテゴリをカバーする未ペアオンライン公開画像からサポートクエリサンプルペアを生成する。
高精度な測定のための単一画素幅輪郭を得るため、ガバーフィルタに基づく非最大抑圧を生輪郭を薄くするように設計する。
新たなCPI抽出タスクのために,オンライン公開画像を用いたObject Contour Primitivesデータセットと,ロボットに搭載されたカメラを用いたRobotic Object Contour Measurementデータセットを構築した。
提案手法の有効性は一連の実験によって検証される。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Perspective-aware Convolution for Monocular 3D Object Detection [2.33877878310217]
画像の長距離依存性をキャプチャする新しい視点対応畳み込み層を提案する。
画像画素ごとの深度軸に沿った特徴を抽出するために畳み込みカーネルを強制することにより、パースペクティブ情報をネットワークアーキテクチャに組み込む。
我々は、KITTI3Dデータセットの性能向上を実証し、簡単なベンチマークで平均23.9%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-24T17:25:36Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - 6D Object Pose Estimation using Keypoints and Part Affinity Fields [24.126513851779936]
RGB画像からの6Dオブジェクトのポーズ推定のタスクは、自律型サービスロボットが現実世界と対話できるための重要な要件である。
既知物体の6自由度変換と配向を推定するための2段階パイプラインを提案する。
論文 参考訳(メタデータ) (2021-07-05T14:41:19Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。