論文の概要: Neural Packing: from Visual Sensing to Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2311.09233v1
- Date: Tue, 17 Oct 2023 02:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:05:15.734960
- Title: Neural Packing: from Visual Sensing to Reinforcement Learning
- Title(参考訳): ニューラルパッキング:視覚センシングから強化学習へ
- Authors: Juzhan Xu, Minglun Gong, Hao Zhang, Hui Huang, Ruizhen Hu
- Abstract要約: 本稿では,3DでTAP(Transport-and-packing)問題を解決するための新しい学習フレームワークを提案する。
RGBDセンシングと認識による入力オブジェクトの部分的な観察から、ロボットモーション計画による最終ボックス配置に至るまで、完全なソリューションパイプラインを構成し、ターゲットコンテナ内のコンパクトパッキングに到達する。
- 参考スコア(独自算出の注目度): 24.35678534893451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel learning framework to solve the transport-and-packing
(TAP) problem in 3D. It constitutes a full solution pipeline from partial
observations of input objects via RGBD sensing and recognition to final box
placement, via robotic motion planning, to arrive at a compact packing in a
target container. The technical core of our method is a neural network for TAP,
trained via reinforcement learning (RL), to solve the NP-hard combinatorial
optimization problem. Our network simultaneously selects an object to pack and
determines the final packing location, based on a judicious encoding of the
continuously evolving states of partially observed source objects and available
spaces in the target container, using separate encoders both enabled with
attention mechanisms. The encoded feature vectors are employed to compute the
matching scores and feasibility masks of different pairings of box selection
and available space configuration for packing strategy optimization. Extensive
experiments, including ablation studies and physical packing execution by a
real robot (Universal Robot UR5e), are conducted to evaluate our method in
terms of its design choices, scalability, generalizability, and comparisons to
baselines, including the most recent RL-based TAP solution. We also contribute
the first benchmark for TAP which covers a variety of input settings and
difficulty levels.
- Abstract(参考訳): 本稿では,3DでTAP(Transport-and-packing)問題を解決するための新しい学習フレームワークを提案する。
RGBDセンシングと認識による入力オブジェクトの部分的な観測から、ロボットモーション計画による最終ボックス配置に至るまで、完全なソリューションパイプラインを構成し、ターゲットコンテナ内のコンパクトパッキングに到達する。
この手法の技術的コアは、np-hard combinatorial optimization問題を解くために強化学習(rl)によって訓練されたtap用ニューラルネットワークである。
提案ネットワークは,対象コンテナ内の部分的観測対象オブジェクトと利用可能な空間の連続的発展状態の無秩序エンコーディングに基づいて,パッキング対象を選択・決定し,その最終パッキング位置を決定する。
符号化された特徴ベクトルを用いて、ボックス選択の異なるペアリングとパッキング戦略最適化のための利用可能な空間構成のマッチングスコアと実現マスクを算出する。
実ロボット (universal robot ur5e) によるアブレーション研究や物理的パッキングの実行を含む広範な実験を行い, その設計選択, 拡張性, 一般化性, および最新のrlベースのタップソリューションを含むベースラインとの比較について評価した。
また、様々な入力設定と難易度をカバーするTAPの最初のベンチマークも提供します。
関連論文リスト
- Automated and Holistic Co-design of Neural Networks and ASICs for Enabling In-Pixel Intelligence [4.063480188363124]
放射能検出のための可読ASICなどの極端エッジAIシステムは、厳密なハードウェア制約の下で動作しなければならない。
理想的なソリューションを見つけることは、爆発的に拡張されたデザイン空間から最適なAIとASIC設計の選択を特定することを意味する。
論文 参考訳(メタデータ) (2024-07-18T17:58:05Z) - Find n' Propagate: Open-Vocabulary 3D Object Detection in Urban Environments [67.83787474506073]
我々は,現在のLiDARに基づく3Dオブジェクト検出システムの限界に対処する。
本稿では,3次元OVタスクに対する汎用textscFind n' Propagate アプローチを提案する。
我々は、新しいオブジェクトクラスに対する平均精度(AP)を最大3.97倍に向上させる。
論文 参考訳(メタデータ) (2024-03-20T12:51:30Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - TAP-Net: Transport-and-Pack using Reinforcement Learning [25.884588673613244]
本稿では,実世界のパッキングにおいて頻繁に発生するTAP(Transport-and-pack)問題を紹介する。
我々は強化学習に基づくニューラル最適化ソリューションを開発した。
我々のネットワークは、小さな入力で訓練された場合、より大きな問題インスタンスに対してよく一般化されることを示す。
論文 参考訳(メタデータ) (2020-09-03T06:20:17Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - A Generalized Reinforcement Learning Algorithm for Online 3D Bin-Packing [7.79020719611004]
本稿では,オンライン3次元ビンパッキング問題の解法としてDeep Reinforcement Learning (Deep RL)アルゴリズムを提案する。
その焦点は、ロボットのローディングアームで物理的に実装できる意思決定を作ることだ。
実験的な競合比と容積効率の観点から,RL法は最先端のオンラインビンパッキングよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-01T13:02:04Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。