論文の概要: Active Perception for Ambiguous Objects Classification
- arxiv url: http://arxiv.org/abs/2108.00737v1
- Date: Mon, 2 Aug 2021 09:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:05:12.406690
- Title: Active Perception for Ambiguous Objects Classification
- Title(参考訳): あいまいな物体分類のためのアクティブ・パーセプション
- Authors: Evgenii Safronov, Nicola Piga, Michele Colledanchise, and Lorenzo
Natale
- Abstract要約: 現実世界では、単一の視点から正確な分類と検出を許さないあいまいな物体を見つけることができる。
本稿では,オブジェクトの単一ビューが与えられた場合,オブジェクトを類似するものと識別するための次の視点の座標を提供し,あいまいさを解消するフレームワークを提案する。
我々は,フランカ・エミカ・パンダロボットと,あいまいさを特徴とする一般家庭用物体を用いて,我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 7.837959746116199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent visual pose estimation and tracking solutions provide notable results
on popular datasets such as T-LESS and YCB. However, in the real world, we can
find ambiguous objects that do not allow exact classification and detection
from a single view. In this work, we propose a framework that, given a single
view of an object, provides the coordinates of a next viewpoint to discriminate
the object against similar ones, if any, and eliminates ambiguities. We also
describe a complete pipeline from a real object's scans to the viewpoint
selection and classification. We validate our approach with a Franka Emika
Panda robot and common household objects featured with ambiguities. We released
the source code to reproduce our experiments.
- Abstract(参考訳): 最近の視覚的ポーズ推定と追跡ソリューションは、T-LESSやYCBといった一般的なデータセットに顕著な結果をもたらす。
しかし、現実の世界では、単一の視点から正確な分類と検出を許さない曖昧な物体を見つけることができる。
本研究では,オブジェクトの単一ビューが与えられた場合,オブジェクトを類似するものと識別するための次の視点の座標を提供し,あいまいさを解消するフレームワークを提案する。
また、実際のオブジェクトのスキャンから視点の選択と分類まで、完全なパイプラインを記述する。
我々は,franka emika pandaロボットと,あいまいさを特徴とする一般的な家庭用ロボットを用いて,このアプローチを検証する。
実験を再現するソースコードをリリースしました。
関連論文リスト
- Beyond Viewpoint: Robust 3D Object Recognition under Arbitrary Views through Joint Multi-Part Representation [22.8031613567025]
Part-Aware Network (PANet) は、航空機の翼や尾などの3Dオブジェクトの異なる部分のローカライズと理解を目的としている。
提案手法は,任意のビュー下での3次元オブジェクト認識処理において,既存のビューベースアグリゲーションベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-04T11:16:47Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example [26.866356430469757]
所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
論文 参考訳(メタデータ) (2023-05-22T01:32:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。