論文の概要: Object affordance as a guide for grasp-type recognition
- arxiv url: http://arxiv.org/abs/2103.00268v1
- Date: Sat, 27 Feb 2021 17:03:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:48:00.772823
- Title: Object affordance as a guide for grasp-type recognition
- Title(参考訳): 把握型認識のためのガイドとしてのオブジェクトアレイアンス
- Authors: Naoki Wake, Daichi Saito, Kazuhiro Sasabuchi, Hideki Koike, Katsushi
Ikeuchi
- Abstract要約: 本研究では,各オブジェクトオン畳み込みニューラルネットワーク(CNN)に基づく把握型認識に対するオブジェクトアレイランスの効果を解析した。
その結果,対象物価はCNNを双方のシナリオでガイドし,その精度を 1) 候補の不可避な把握型を除外し,2) 有意な把握型を増強した。
- 参考スコア(独自算出の注目度): 15.702918492410388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognizing human grasping strategies is an important factor in robot
teaching as these strategies contain the implicit knowledge necessary to
perform a series of manipulations smoothly. This study analyzed the effects of
object affordance-a prior distribution of grasp types for each object-on
convolutional neural network (CNN)-based grasp-type recognition. To this end,
we created datasets of first-person grasping-hand images labeled with grasp
types and object names, and tested a recognition pipeline leveraging object
affordance. We evaluated scenarios with real and illusory objects to be
grasped, to consider a teaching condition in mixed reality where the lack of
visual object information can make the CNN recognition challenging. The results
show that object affordance guided the CNN in both scenarios, increasing the
accuracy by 1) excluding unlikely grasp types from the candidates and 2)
enhancing likely grasp types. In addition, the "enhancing effect" was more
pronounced with high degrees of grasp-type heterogeneity. These results
indicate the effectiveness of object affordance for guiding grasp-type
recognition in robot teaching applications.
- Abstract(参考訳): これらの戦略は、一連の操作を円滑に行うために必要な暗黙の知識を含むため、ロボット教育において、人間の把握戦略を認識することが重要な要素である。
本研究は,各オブジェクトオン畳み込みニューラルネットワーク(CNN)を用いたグリップ型認識における,物体の事前のグリップ型分布の影響を解析した。
この目的のために,把持型と対象名とをラベル付けした一人称把持型画像のデータセットを作成し,オブジェクト許容度を利用した認識パイプラインをテストした。
視覚的物体情報の欠如がCNN認識を困難にする混在現実における教示条件を検討するため,実物と実物とのシナリオの評価を行った。
その結果,対象物価はCNNを双方のシナリオでガイドし,その精度を 1) 候補の不可避な把握型を除外し,2) 有意な把握型を増強した。
さらに、"エンハンシング効果"は、高い把握型不均一性でより顕著であった。
以上の結果から,ロボット教育における把持型認識誘導における物体余裕の有効性が示唆された。
関連論文リスト
- Leveraging Foundation Models To learn the shape of semi-fluid deformable objects [0.7895162173260983]
過去10年間、非流動性のある変形可能な物体を特徴付け、操作する研究者によって強い関心が浮かび上がった。
本稿では,動作制御対象の情報として機能する安定な特徴を定義するために,溶接プールの特徴付けの課題に対処する。
基礎モデルからより小さな生成モデルへの知識蒸留の性能は、変形可能な物体のキャラクタリゼーションにおいて顕著な結果を示す。
論文 参考訳(メタデータ) (2024-11-25T13:41:35Z) - Which objects help me to act effectively? Reasoning about physically-grounded affordances [0.6291443816903801]
この理解の重要な側面は、オブジェクトの余裕を検出することである。
提案手法は,大規模言語モデル (LLM) と視覚言語モデル (VLM) の対話を利用して,オープンワールドのアベイランス検出を実現する。
我々のシステムを物理的世界に接地することで、ロボットの体現と、遭遇する物体の本質的な性質を説明できる。
論文 参考訳(メタデータ) (2024-07-18T11:08:57Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。