論文の概要: Learning to Throw-Flip
- arxiv url: http://arxiv.org/abs/2510.10357v1
- Date: Sat, 11 Oct 2025 22:18:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.904443
- Title: Learning to Throw-Flip
- Title(参考訳): スローフリップの学習
- Authors: Yang Liu, Bruno Da Costa, Aude Billard,
- Abstract要約: 本稿では,ロボットが所望の着地ポーズに対して,オブジェクトを正確に「スローフリップ」することができる方法を提案する。
我々は寄生虫の回転を効果的に分離する投球運動の族を設計する。
私たちのフレームワークは、数十の試行において、ポーズターゲットにオブジェクトを投げる(pm$5 cm, $pm$45 °)ことができる。
- 参考スコア(独自算出の注目度): 11.364182432162863
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dynamic manipulation, such as robot tossing or throwing objects, has recently gained attention as a novel paradigm to speed up logistic operations. However, the focus has predominantly been on the object's landing location, irrespective of its final orientation. In this work, we present a method enabling a robot to accurately "throw-flip" objects to a desired landing pose (position and orientation). Conventionally, objects thrown by revolute robots suffer from parasitic rotation, resulting in highly restricted and uncontrollable landing poses. Our approach is based on two key design choices: first, leveraging the impulse-momentum principle, we design a family of throwing motions that effectively decouple the parasitic rotation, significantly expanding the feasible set of landing poses. Second, we combine a physics-based model of free flight with regression-based learning methods to account for unmodeled effects. Real robot experiments demonstrate that our framework can learn to throw-flip objects to a pose target within ($\pm$5 cm, $\pm$45 degrees) threshold in dozens of trials. Thanks to data assimilation, incorporating projectile dynamics reduces sample complexity by an average of 40% when throw-flipping to unseen poses compared to end-to-end learning methods. Additionally, we show that past knowledge on in-hand object spinning can be effectively reused, accelerating learning by 70% when throwing a new object with a Center of Mass (CoM) shift. A video summarizing the proposed method and the hardware experiments is available at https://youtu.be/txYc9b1oflU.
- Abstract(参考訳): ロボットを投げたり投げたりするなどの動的操作は、最近、ロジスティックな操作を高速化する新しいパラダイムとして注目されている。
しかし、最終的な向きに関係なく、主に物体の着陸位置に焦点を当てている。
本研究では,ロボットが所望の着地ポーズ(位置と向き)に対して正確に「スローフリップ」できる手法を提案する。
従来、回転ロボットによって投げられた物体は寄生虫の回転に悩まされ、高度に制限され制御不能な着陸ポーズが生じる。
まず、インパルス-モーメント原理を利用して、寄生虫の回転を効果的に分離する投球運動の族を設計し、実現可能な着地ポーズを著しく拡大する。
第2に,自由飛行の物理モデルと回帰学習法を組み合わせることにより,非モデル化効果を考察する。
実際のロボット実験は、我々のフレームワークが何十回もの試行において、ポーズターゲットにオブジェクトを投げる($\pm$5 cm, $\pm$45 °)ことができることを示した。
データ同化のおかげで、プロジェクタリダイナミックスを組み込むことで、エンドツーエンドの学習方法と比較して、見知らぬポーズに投げかけると、サンプルの複雑さが平均40%減少する。
さらに,Center of Mass(CoM)シフトで新しい物体を投げる場合,手動回転の過去の知識を効果的に再利用し,学習を70%加速させることを示す。
提案手法とハードウェア実験を要約したビデオがhttps://youtu.be/txYc9b1oflUで公開されている。
関連論文リスト
- Object-centric 3D Motion Field for Robot Learning from Human Videos [56.9436352861611]
本稿では,人間ビデオからのロボット学習の動作を表現するために,物体中心の3次元運動場を提案する。
ゼロショット制御のためのビデオからこの表現を抽出するための新しいフレームワークを提案する。
実験の結果,提案手法は最新の手法に比べて3次元動作推定誤差を50%以上削減できることがわかった。
論文 参考訳(メタデータ) (2025-06-04T17:59:06Z) - FLEX: A Framework for Learning Robot-Agnostic Force-based Skills Involving Sustained Contact Object Manipulation [9.292150395779332]
本稿では,力空間におけるオブジェクト中心の操作ポリシーを学習するための新しいフレームワークを提案する。
提案手法は, 動作空間を単純化し, 不要な探索を低減し, シミュレーションオーバーヘッドを低減させる。
評価の結果,本手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2025-03-17T17:49:47Z) - Dynamic object goal pushing with mobile manipulators through model-free constrained reinforcement learning [9.305146484955296]
我々は,未知の物体を所望の位置に移動させ,一連のプッシュ動作によって方向を判断する,移動マニピュレータのための学習型コントローラを開発した。
ロボットアームと移動体ベースモーションのコントローラは,制約付き強化学習(RL)の定式化を用いて訓練される。
学習されたポリシーは、シミュレーションで91.35%、挑戦的なシナリオでハードウェアで80%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-03T17:28:35Z) - Uncertainty-aware Active Learning of NeRF-based Object Models for Robot Manipulators using Visual and Re-orientation Actions [8.059133373836913]
本稿では,ロボットが対象物の完全な3次元モデルを高速に学習し,不慣れな方向で操作できるアプローチを提案する。
我々は、部分的に構築されたNeRFモデルのアンサンブルを用いて、モデルの不確実性を定量化し、次の動作を決定する。
提案手法は, 部分的NeRFモデルにより対象物をいつ, どのように把握し, 再指向するかを判断し, 相互作用中に導入された不整合を補正するために, 対象のポーズを再推定する。
論文 参考訳(メタデータ) (2024-04-02T10:15:06Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - In-Hand Object Rotation via Rapid Motor Adaptation [59.59946962428837]
指先のみを用いて手動物体の回転を実現するための簡単な適応制御器の設計と学習方法を示す。
コントローラは、円筒形物体のみのシミュレーションで完全に訓練されている。
実際のロボットの手に直接展開して、さまざまな大きさ、形状、重量をz軸上で回転させることができる。
論文 参考訳(メタデータ) (2022-10-10T17:58:45Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Learning Object Manipulation Skills from Video via Approximate
Differentiable Physics [27.923004421974156]
我々はロボットに、単一のビデオデモを見て、シンプルなオブジェクト操作タスクを実行するように教える。
識別可能なシーンは、3Dシーンと2Dビデオの間の知覚的忠実性を保証する。
我々は,54のデモ映像からなる3次元再構成作業に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-03T10:21:47Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。