論文の概要: Assembly Planning from Observations under Physical Constraints
- arxiv url: http://arxiv.org/abs/2204.09616v1
- Date: Wed, 20 Apr 2022 16:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:24:14.581316
- Title: Assembly Planning from Observations under Physical Constraints
- Title(参考訳): 物理制約下における観測からの会議計画
- Authors: Thomas Chabal, Robin Strudel, Etienne Arlaud, Jean Ponce, Cordelia
Schmid
- Abstract要約: 提案アルゴリズムは, 物理安定性制約, 凸最適化, モンテカルロ木探索の簡単な組み合わせを用いて, 集合を計画する。
それは効率的で、最も重要なことは、オブジェクト検出のエラーに対して堅牢であり、実際のロボットシステムでは避けられないポーズ推定である。
- 参考スコア(独自算出の注目度): 65.83676649042623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the problem of copying an unknown assembly of primitives
with known shape and appearance using information extracted from a single
photograph by an off-the-shelf procedure for object detection and pose
estimation. The proposed algorithm uses a simple combination of physical
stability constraints, convex optimization and Monte Carlo tree search to plan
assemblies as sequences of pick-and-place operations represented by STRIPS
operators. It is efficient and, most importantly, robust to the errors in
object detection and pose estimation unavoidable in any real robotic system.
The proposed approach is demonstrated with thorough experiments on a UR5
manipulator.
- Abstract(参考訳): 本稿では,オブジェクト検出とポーズ推定のためのオフ・ザ・シェルフ手法を用いて,単一の写真から抽出した情報を用いて,未知のプリミティブの集合体を既知の形状と外観でコピーする問題に対処する。
提案アルゴリズムは,物理安定性制約,凸最適化,モンテカルロ木探索の簡単な組み合わせを用いて,STRIPS演算子で表されるピック・アンド・プレース演算の列としてアセンブリを計画する。
それは効率的で、最も重要なのは、実際のロボットシステムでは避けられないオブジェクト検出とポーズ推定のエラーに対して頑健であることだ。
提案手法はUR5マニピュレータの徹底的な実験により実証された。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - PUAD: Frustratingly Simple Method for Robust Anomaly Detection [0.0]
対象の誤数のような論理的異常は空間的特徴写像によってうまく表現できないと我々は主張する。
本稿では, 特徴空間上に, 最先端の再構成に基づくアプローチに対して, 簡単な分布外検出手法を組み込む手法を提案する。
本手法は,MVTec LOCO ADデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:57:31Z) - Implicit representation priors meet Riemannian geometry for Bayesian
robotic grasping [5.533353383316288]
本研究では,シーン依存の先行表現を構築するために暗黙の表現を用いる方法について検討する。
シミュレーションと物理ベンチマークの結果は、このアプローチの成功率と有望な可能性を示している。
論文 参考訳(メタデータ) (2023-04-18T08:08:14Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - 1-Point RANSAC-Based Method for Ground Object Pose Estimation [5.954779483701331]
オブジェクトのポーズは、RANSACベースのスキームでn = 3, 4を検出するアルゴリズムで計算される。
しかし、計算複雑性はnとともに増加し、高い複雑性は複数のオブジェクトのポーズをリアルタイムで推定するデバイスに深刻な歪みを課す。
本論文では,1点RANSACに基づくオブジェクトのポーズを地上で推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T12:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。