論文の概要: A Bayesian framework for active object recognition, pose estimation and shape transfer learning through touch
- arxiv url: http://arxiv.org/abs/2409.06912v2
- Date: Fri, 13 Sep 2024 13:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 11:48:15.920894
- Title: A Bayesian framework for active object recognition, pose estimation and shape transfer learning through touch
- Title(参考訳): タッチによる能動物体認識・ポーズ推定・形状伝達学習のためのベイズ的枠組み
- Authors: Haodong Zheng, Andrei Jalba, Raymond H. Cuijpers, Wijnand IJsselsteijn, Sanne Schoenmakers,
- Abstract要約: 本研究では,粒子フィルタ (PF) とガウス過程暗黙曲面 (GPIS) を統一ベイズ的枠組みに結合する。
このフレームワークは、既知のオブジェクトと新しいオブジェクトを区別し、オブジェクト認識を行い、既知のオブジェクトを推定し、未知のオブジェクトの形状を再構築することができる。
- 参考スコア(独自算出の注目度): 3.35643050085202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As humans can explore and understand the world through the sense of touch, tactile sensing is also an important aspect of robotic perception. In unstructured environments, robots can encounter both known and novel objects, this calls for a method to address both known and novel objects. In this study, we combine a particle filter (PF) and Gaussian process implicit surface (GPIS) in a unified Bayesian framework. The framework can differentiate between known and novel objects, perform object recognition, estimate pose for known objects, and reconstruct shapes for unknown objects, in an active learning fashion. By grounding the selection of the GPIS prior with the maximum-likelihood-estimation (MLE) shape from the PF, the knowledge about known objects' shapes can be transferred to learn novel shapes. An exploration procedure with global shape estimation is proposed to guide active data acquisition and conclude the exploration when sufficient information is obtained. The performance of the proposed Bayesian framework is evaluated through simulations on known and novel objects, initialized with random poses. The results show that the proposed exploration procedure, utilizing global shape estimation, achieves faster exploration than a local exploration procedure based on rapidly explore random tree (RRT). Overall, our results indicate that the proposed framework is effective and efficient in object recognition, pose estimation and shape reconstruction. Moreover, we show that a learned shape can be included as a new prior and used effectively for future object recognition and pose estimation.
- Abstract(参考訳): 人間は触覚によって世界を探索し、理解することができるので、触覚はロボット知覚の重要な側面でもある。
構造化されていない環境では、ロボットは既知のオブジェクトと新しいオブジェクトの両方に遭遇し、既知のオブジェクトと新しいオブジェクトの両方に対処する方法を要求する。
本研究では,粒子フィルタ (PF) とガウス過程暗黙曲面 (GPIS) を統一ベイズ的枠組みに結合する。
このフレームワークは、既知のオブジェクトと新しいオブジェクトを区別し、オブジェクト認識を行い、既知のオブジェクトを推定し、未知のオブジェクトの形状をアクティブな学習方法で再構築することができる。
PFから最大形推定(MLE)形状に先立ってGPISを選択することにより、既知の物体の形状に関する知識を移譲し、新しい形状を学ぶことができる。
大域的な形状推定による探索手法を提案し,十分な情報が得られると,その探索を導出する。
提案したベイズフレームワークの性能は、未知のポーズで初期化される既知の新しいオブジェクトのシミュレーションによって評価される。
その結果,グローバルな形状推定を応用した探索手法が,RRT(Rapid Exploring random Tree)に基づく局所探索よりも高速に探索できることが示唆された。
以上の結果から,提案手法はオブジェクト認識,ポーズ推定,形状復元において有効かつ効率的であることが示唆された。
さらに、学習した形状を新しい先行要素として含め、将来の物体認識やポーズ推定に効果的に使用できることを示す。
関連論文リスト
- Cyclic Refiner: Object-Aware Temporal Representation Learning for Multi-View 3D Detection and Tracking [37.186306646752975]
マルチビュー3次元検出・追跡タスクのための統合オブジェクト認識時間学習フレームワークを提案する。
提案モデルでは,異なる設計のベースラインよりも一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2024-07-03T16:10:19Z) - Augmented Commonsense Knowledge for Remote Object Grounding [67.30864498454805]
エージェントナビゲーションを改善するための時間的知識グラフとして,コモンセンス情報を活用するための拡張コモンセンス知識モデル(ACK)を提案する。
ACKは知識グラフ対応のクロスモーダルとコンセプトアグリゲーションモジュールで構成され、視覚的表現と視覚的テキストデータアライメントを強化する。
我々は、より正確な局所的な行動予測につながるコモンセンスに基づく意思決定プロセスのための新しいパイプラインを追加します。
論文 参考訳(メタデータ) (2024-06-03T12:12:33Z) - Learning Background Prompts to Discover Implicit Knowledge for Open Vocabulary Object Detection [101.15777242546649]
Open vocabulary Object Detection (OVD) は、ベースと新規の両方のカテゴリからオブジェクトを認識できる最適なオブジェクト検出器を求めることを目的としている。
近年の進歩は、知識蒸留を利用して、事前訓練された大規模視覚言語モデルからオブジェクト検出のタスクに洞察力のある知識を伝達している。
本稿では,暗黙的背景知識を活用するための学習バックグラウンドプロンプトを提案するため,LBPと呼ばれる新しいOVDフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-01T17:32:26Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Spatial Reasoning for Few-Shot Object Detection [21.3564383157159]
本稿では,空間的推論フレームワークを提案する。
グラフ畳み込みネットワークをRoIとその関連性はそれぞれノードとエッジとして定義する。
提案手法は最先端の手法を著しく上回り, 広範囲なアブレーション研究により有効性を検証する。
論文 参考訳(メタデータ) (2022-11-02T12:38:08Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - SafePicking: Learning Safe Object Extraction via Object-Level Mapping [19.502587411252946]
本稿では,オブジェクトレベルのマッピングと学習に基づくモーションプランニングを統合したSafePickingを提案する。
計画は、予測されたポーズの観測を受信する深いQネットワークと、動き軌跡を出力する深さに基づく高さマップを学習することによって行われる。
この結果から,ポーズの観察と深度感の融合により,モデルの性能とロバスト性が向上することが示唆された。
論文 参考訳(メタデータ) (2022-02-11T18:55:10Z) - Combining Local and Global Pose Estimation for Precise Tracking of
Similar Objects [2.861848675707602]
類似・非テクスチャオブジェクトに対する多目的6D検出・追跡パイプラインを提案する。
合成画像のみを訓練した新しいネットワークアーキテクチャは、複数のオブジェクトの同時ポーズ推定を可能にする。
建設現場における実際のAR支援アプリケーションにおいて,システムがどのように利用できるかを示す。
論文 参考訳(メタデータ) (2022-01-31T14:36:57Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Object-Driven Active Mapping for More Accurate Object Pose Estimation
and Robotic Grasping [5.385583891213281]
このフレームワークは、オブジェクトSLAMシステム上に構築され、同時多目的ポーズ推定プロセスと統合される。
マッピングモジュールと探索戦略を組み合わせることにより、ロボットの把握と互換性のある正確なオブジェクトマップを生成することができる。
論文 参考訳(メタデータ) (2020-12-03T09:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。