論文の概要: Online Estimation and Manipulation of Articulated Objects
- arxiv url: http://arxiv.org/abs/2601.01438v1
- Date: Sun, 04 Jan 2026 08:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.349787
- Title: Online Estimation and Manipulation of Articulated Objects
- Title(参考訳): 人工物体のオンライン推定と操作
- Authors: Russell Buchanan, Adrian Röfer, João Moura, Abhinav Valada, Sethu Vijayakumar,
- Abstract要約: サービスロボットは任意の調音されたオブジェクトを操作できなければならない。
近年の深層学習手法は、視覚から明瞭な物体が手に入ることに関して、価値ある先行を予測できることが示されている。
本稿では,これらの手法を組み合わせた新しい手法を提案する。
- 参考スコア(独自算出の注目度): 25.590726638870986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From refrigerators to kitchen drawers, humans interact with articulated objects effortlessly every day while completing household chores. For automating these tasks, service robots must be capable of manipulating arbitrary articulated objects. Recent deep learning methods have been shown to predict valuable priors on the affordance of articulated objects from vision. In contrast, many other works estimate object articulations by observing the articulation motion, but this requires the robot to already be capable of manipulating the object. In this article, we propose a novel approach combining these methods by using a factor graph for online estimation of articulation which fuses learned visual priors and proprioceptive sensing during interaction into an analytical model of articulation based on Screw Theory. With our method, a robotic system makes an initial prediction of articulation from vision before touching the object, and then quickly updates the estimate from kinematic and force sensing during manipulation. We evaluate our method extensively in both simulations and real-world robotic manipulation experiments. We demonstrate several closed-loop estimation and manipulation experiments in which the robot was capable of opening previously unseen drawers. In real hardware experiments, the robot achieved a 75% success rate for autonomous opening of unknown articulated objects.
- Abstract(参考訳): 冷蔵庫から台所の引き出しまで、人間は家の雑用を完了しながら毎日、関節のある物体と熱心に対話します。
これらのタスクを自動化するためには、サービスロボットは任意の調音されたオブジェクトを操作できなければならない。
近年の深層学習手法は、視覚から明瞭な物体が手に入ることに関して、価値ある先行を予測できることが示されている。
対照的に、他の多くの作品では、関節の動きを観察することで、対象の関節を推定するが、これは既に対象を操作できるロボットが必要である。
本稿では,これらの手法を組み合わせた新しい手法を提案する。これらの手法は,学習した視覚的先入観と触覚を,スクリュー理論に基づく分析モデルに融合させるオンラインの調音推定のための因子グラフを用いて提案する。
本手法により,ロボットシステムは物体に触れる前に視覚から調音を予測し,操作中の運動および力覚からの推定を素早く更新する。
シミュレーションと実世界のロボット操作実験の両方において,本手法を広範囲に評価した。
ロボットが未確認の引き出しを開けることのできる閉ループ推定および操作実験をいくつか実施する。
実際のハードウェア実験では、未知の明瞭な物体の自律的な開口に75%の成功率を達成した。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Ditto in the House: Building Articulation Models of Indoor Scenes
through Interactive Perception [31.009703947432026]
本研究は,ロボットの意図的なインタラクションを通じて室内シーンの調音モデルを構築することを検討する。
この課題にインタラクティブな認識アプローチを導入する。
シミュレーションと実世界の両方において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-02-02T18:22:00Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration [8.57914821832517]
視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
論文 参考訳(メタデータ) (2021-05-13T16:36:55Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。