論文の概要: HERB: Human-augmented Efficient Reinforcement learning for Bin-packing
- arxiv url: http://arxiv.org/abs/2504.16595v1
- Date: Wed, 23 Apr 2025 10:24:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:56:25.659482
- Title: HERB: Human-augmented Efficient Reinforcement learning for Bin-packing
- Title(参考訳): HERB:Bin-packingのための人力強化強化学習
- Authors: Gojko Perovic, Nuno Ferreira Duarte, Atabak Dehban, Gonçalo Teixeira, Egidio Falotico, José Santos-Victor,
- Abstract要約: 本研究では,不規則なオブジェクトをパッケージングするための人為的なRLフレームワークHERBを提案する。
私たちはまず、人間のデモを活用して、パッケージングするオブジェクトの最適なシーケンスを学びます。
次に、視覚情報を用いてパッキングコンテナ内の最適な物体位置を決定する配置アルゴリズムを訓練する。
- 参考スコア(独自算出の注目度): 7.600912109332151
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Packing objects efficiently is a fundamental problem in logistics, warehouse automation, and robotics. While traditional packing solutions focus on geometric optimization, packing irregular, 3D objects presents significant challenges due to variations in shape and stability. Reinforcement Learning~(RL) has gained popularity in robotic packing tasks, but training purely from simulation can be inefficient and computationally expensive. In this work, we propose HERB, a human-augmented RL framework for packing irregular objects. We first leverage human demonstrations to learn the best sequence of objects to pack, incorporating latent factors such as space optimization, stability, and object relationships that are difficult to model explicitly. Next, we train a placement algorithm that uses visual information to determine the optimal object positioning inside a packing container. Our approach is validated through extensive performance evaluations, analyzing both packing efficiency and latency. Finally, we demonstrate the real-world feasibility of our method on a robotic system. Experimental results show that our method outperforms geometric and purely RL-based approaches by leveraging human intuition, improving both packing robustness and adaptability. This work highlights the potential of combining human expertise-driven RL to tackle complex real-world packing challenges in robotic systems.
- Abstract(参考訳): 物を効率的に梱包することは、物流、倉庫の自動化、ロボット工学における根本的な問題である。
従来のパッキングソリューションは幾何学的最適化に重点を置いているが、パッキングの不規則な3Dオブジェクトは形状や安定性の変化によって大きな課題を呈している。
強化学習〜(RL)はロボットパッキングタスクで人気があるが、シミュレーションから純粋にトレーニングすることは非効率で計算コストが高い。
本研究では,不規則なオブジェクトをパッケージングするための人為的なRLフレームワークであるHERBを提案する。
まず、人間のデモンストレーションを活用して、空間最適化や安定性、モデリングが困難であるオブジェクト関係といった潜伏要素を組み込んで、パッケージングするオブジェクトの最適なシーケンスを学習する。
次に、視覚情報を用いた配置アルゴリズムを訓練し、梱包容器内の最適な物体位置を決定する。
当社のアプローチは、パッキング効率とレイテンシの両方を分析し、広範なパフォーマンス評価を通じて検証されている。
最後に,ロボットシステムにおける本手法の現実的実現可能性を示す。
実験結果から,本手法は人間の直感を活かして幾何学的,純粋にRLに基づく手法よりも優れており,ロバスト性や適応性も向上していることがわかった。
この研究は、人間の専門知識を駆使したRLを組み合わせて、ロボットシステムにおける複雑な現実世界のパッキング課題に取り組む可能性を強調している。
関連論文リスト
- A Data-Centric Revisit of Pre-Trained Vision Models for Robot Learning [67.72413262980272]
事前訓練された視覚モデル(PVM)は現代のロボティクスの基本であるが、その最適構成は定かではない。
セマンティック・ボトルネックを導入してオブジェクト中心の表現を誘導する手法であるSlotMIMを開発した。
提案手法は,画像認識,シーン理解,ロボット学習評価において,従来の作業よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-03-10T06:18:31Z) - Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids [61.033745979145536]
本研究は,ヒューマノイドの具体化におけるコンタクトリッチな操作タスクの集合を解決するために,強化学習を適用する上で重要な課題について検討する。
私たちの主なコントリビューションは、シミュレーション環境を現実世界に近づける自動リアルタイムチューニングモジュールです。
本研究は,3つのヒューマノイド・デキスタラス・オペレーティング・タスクにおいて有望な結果を示し,それぞれのテクニックについてアブレーション研究を行った。
論文 参考訳(メタデータ) (2025-02-27T18:59:52Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement Learning [82.46975428739329]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - REBEL: Reward Regularization-Based Approach for Robotic Reinforcement Learning from Human Feedback [61.54791065013767]
報酬関数と人間の嗜好の相違は、現実世界で破滅的な結果をもたらす可能性がある。
近年の手法は、人間の嗜好から報酬関数を学習することで、不適応を緩和することを目的としている。
本稿では,ロボットRLHFフレームワークにおける報酬正規化の新たな概念を提案する。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Learning Physically Realizable Skills for Online Packing of General 3D
Shapes [41.27652080050046]
本研究では,不規則な3次元形状に対するオンラインパッキングスキルの学習課題について検討する。
目標は、任意の形状の3Dオブジェクトの連続を指定された容器に連続的に移動させることである。
我々は、物理力学と配置の制約を含む物理的実現性を考慮に入れている。
論文 参考訳(メタデータ) (2022-12-05T08:23:39Z) - SAGCI-System: Towards Sample-Efficient, Generalizable, Compositional,
and Incremental Robot Learning [41.19148076789516]
上記の4つの要件を満たすために,SAGCIシステムと呼ばれる体系的な学習フレームワークを導入する。
本システムはまず,ロボットの手首に搭載されたカメラによって収集された生点雲を入力とし,URDFに代表される周囲環境の初期モデリングを生成する。
そのロボットは、対話的な知覚を利用して環境と対話し、URDFのオンライン検証と修正を行う。
論文 参考訳(メタデータ) (2021-11-29T16:53:49Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - Beyond Pick-and-Place: Tackling Robotic Stacking of Diverse Shapes [29.49728031012592]
複雑な幾何学の物体を用いたロボット積み重ね問題について検討する。
我々は、シンプルな「ピック・アンド・プレイス」ソリューション以上の戦略を必要とするように慎重に設計された、挑戦的で多様なオブジェクトセットを提案する。
本手法は, 視覚に基づく対話型ポリシー蒸留とシミュレーションから現実への伝達を併用した強化学習 (RL) 手法である。
論文 参考訳(メタデータ) (2021-10-12T17:46:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。