論文の概要: The Sum of Its Parts: Visual Part Segmentation for Inertial Parameter
Identification of Manipulated Objects
- arxiv url: http://arxiv.org/abs/2302.06685v1
- Date: Mon, 13 Feb 2023 20:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 17:16:11.073672
- Title: The Sum of Its Parts: Visual Part Segmentation for Inertial Parameter
Identification of Manipulated Objects
- Title(参考訳): その部分の合計:操作対象の慣性パラメータ識別のための視覚部分分割
- Authors: Philippe Nadeau, Matthew Giamou, Jonathan Kelly
- Abstract要約: 慣性パラメータの完全なセットを推定する従来の方法は、必ずしも速くて安全でない動きに依存している。
そこで我々は,人間周辺での使用に適した,スロー動作やストップ・アンド・ゴー動作のみを必要とする慣性パラメータ同定アルゴリズムを開発した。
我々は、低コストの協調ロボットアームで、自律的かつオンラインで複雑な「ハンマーバランス行為」を行うことで、アルゴリズムを実証する。
- 参考スコア(独自算出の注目度): 8.798250996263237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To operate safely and efficiently alongside human workers, collaborative
robots (cobots) require the ability to quickly understand the dynamics of
manipulated objects. However, traditional methods for estimating the full set
of inertial parameters rely on motions that are necessarily fast and unsafe (to
achieve a sufficient signal-to-noise ratio). In this work, we take an
alternative approach: by combining visual and force-torque measurements, we
develop an inertial parameter identification algorithm that requires slow or
'stop-and-go' motions only, and hence is ideally tailored for use around
humans. Our technique, called Homogeneous Part Segmentation (HPS), leverages
the observation that man-made objects are often composed of distinct,
homogeneous parts. We combine a surface-based point clustering method with a
volumetric shape segmentation algorithm to quickly produce a part-level
segmentation of a manipulated object; the segmented representation is then used
by HPS to accurately estimate the object's inertial parameters. To benchmark
our algorithm, we create and utilize a novel dataset consisting of realistic
meshes, segmented point clouds, and inertial parameters for 20 common workshop
tools. Finally, we demonstrate the real-world performance and accuracy of HPS
by performing an intricate 'hammer balancing act' autonomously and online with
a low-cost collaborative robotic arm. Our code and dataset are open source and
freely available.
- Abstract(参考訳): 作業者と共に安全かつ効率的に作業するためには,協調ロボット(cobots)は,操作対象のダイナミックスを迅速に理解する能力が必要である。
しかしながら、慣性パラメータの完全なセットを推定する従来の方法は、必ずしも高速で安全でない動き(十分な信号対雑音比を達成するために)に依存する。
本研究では,視覚と力のねじれを組み合わせることで,動きの遅さや「ストップ・アンド・ゴー」のみを必要とする慣性パラメータ同定アルゴリズムを開発した。
この手法は均質部分分割 (hps) と呼ばれ, 人工物は異なる均質な部分から構成されていることが多いという観察を生かしている。
我々は,表面に基づく点クラスタリング法と体積形状分割アルゴリズムを組み合わせることで,操作対象の部分レベルセグメンテーションを高速に生成し,そのセグメンテーション表現をHPSにより精度よくオブジェクトの慣性パラメータを推定するために利用する。
アルゴリズムをベンチマークするために、20の共通ワークショップツールに対して、現実的なメッシュ、セグメント化されたポイントクラウド、慣性パラメータからなる新しいデータセットを作成し、利用する。
最後に,低コストの協調ロボットアームを用いて,複雑な「ハンマーバランス法」を自律的かつオンラインで実施することにより,HPSの実際の性能と精度を実証する。
私たちのコードとデータセットはオープンソースで、自由に利用できます。
関連論文リスト
- RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features [6.358423536732677]
本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-04T05:03:24Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [44.75280244958735]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Appearance-based Refinement for Object-Centric Motion Segmentation [95.80420062679104]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では, 正確な流量予測マスクを模範として, 簡単な選択機構を用いる。
パフォーマンスは、DAVIS、YouTubeVOS、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation [49.56131393810713]
本稿では、SE(3)同変アーキテクチャと、この課題に教師なしで取り組むためのトレーニング戦略を提案する。
本手法は,0.25Mパラメータと0.92G FLOPを用いて,モデル性能と計算効率を両立させる。
論文 参考訳(メタデータ) (2023-06-08T22:55:32Z) - Building Rearticulable Models for Arbitrary 3D Objects from 4D Point
Clouds [28.330364666426345]
任意の数の部品を含む日常的な人工物に対して再計算可能なモデルを構築する。
本手法では, 異なる対象部位, どの部位が他の部位に接続されているか, および各部位を接続する接合部の性質を同定する。
論文 参考訳(メタデータ) (2023-06-01T17:59:21Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Instance Segmentation with Cross-Modal Consistency [13.524441194366544]
本稿では,複数センサモードの測定を協調的に活用するインスタンスセグメンテーションへの新しいアプローチを提案する。
本手法は, センサ・モダリティと時間領域の両面において, 現場の点に対してコントラスト学習を適用した。
この定式化は、視点の変化に不変な埋め込みを学ぶことをモデルに促すことを実証する。
論文 参考訳(メタデータ) (2022-10-14T21:17:19Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。