論文の概要: Convolutional Occupancy Models for Dense Packing of Complex, Novel
Objects
- arxiv url: http://arxiv.org/abs/2308.00091v1
- Date: Mon, 31 Jul 2023 19:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 16:29:44.812056
- Title: Convolutional Occupancy Models for Dense Packing of Complex, Novel
Objects
- Title(参考訳): 複雑な新規物体の密充填のための畳み込み占有モデル
- Authors: Nikhil Mishra, Pieter Abbeel, Xi Chen, Maximilian Sieb
- Abstract要約: 実世界における密包装のための既成の計画手法と容易に組み合わせることができる完全畳み込み形状完備モデルF-CONを提案する。
シミュレーションデータセットであるCOB-3D-v2もリリースしています。
最後に、F-CONと現実世界のピック・アンド・プレイス・システムを備え、散らばったシーンで複雑で見えない物体を密集したパッキングを実演する。
- 参考スコア(独自算出の注目度): 75.54599721349037
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dense packing in pick-and-place systems is an important feature in many
warehouse and logistics applications. Prior work in this space has largely
focused on planning algorithms in simulation, but real-world packing
performance is often bottlenecked by the difficulty of perceiving 3D object
geometry in highly occluded, partially observed scenes. In this work, we
present a fully-convolutional shape completion model, F-CON, which can be
easily combined with off-the-shelf planning methods for dense packing in the
real world. We also release a simulated dataset, COB-3D-v2, that can be used to
train shape completion models for real-word robotics applications, and use it
to demonstrate that F-CON outperforms other state-of-the-art shape completion
methods. Finally, we equip a real-world pick-and-place system with F-CON, and
demonstrate dense packing of complex, unseen objects in cluttered scenes.
Across multiple planning methods, F-CON enables substantially better dense
packing than other shape completion methods.
- Abstract(参考訳): ピックアップ・アンド・プレイスシステムにおけるDense Packingは多くの倉庫や物流アプリケーションにおいて重要な機能である。
この分野における以前の研究は、シミュレーションにおける計画アルゴリズムに主に焦点を合わせてきたが、実世界のパッキング性能は、密集した部分的に観察されたシーンで3Dオブジェクトの幾何学を知覚することの難しさによってボトルネックとなることが多い。
本研究では,実世界における密包装の既成計画手法と容易に組み合わせることができる完全畳み込み形状完備モデルF-CONを提案する。
また,実単語ロボットアプリケーションの形状補完モデルのトレーニングに使用可能なシミュレーションデータセットであるcob-3d-v2をリリースし,f-conが他の最先端形状補完手法よりも優れていることを示す。
最後に、F-CONと現実世界のピック・アンド・プレイス・システムを備え、散らばったシーンで複雑で見えない物体を密集したパッキングを示す。
複数の計画法で、F-CONは他の形状完成法よりもかなり優れた密充填を可能にする。
関連論文リスト
- Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - Zero-Shot Multi-Object Shape Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の物体の完全な形状を復元する3次元形状補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - SC-Diff: 3D Shape Completion with Latent Diffusion Models [4.913210912019975]
本稿では, 形状の完成に最適化された3次元潜在拡散モデルを用いて, 3次元形状完備化手法を提案する。
本手法は,空間的コンディショニングとクロスアテンションによる画像ベースコンディショニングを,キャプチャー部分スキャンからの3次元特徴の統合により組み合わせたものである。
論文 参考訳(メタデータ) (2024-03-19T06:01:11Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - DiffComplete: Diffusion-based Generative 3D Shape Completion [114.43353365917015]
3次元レンジスキャンにおける形状完成のための拡散に基づく新しいアプローチを提案する。
私たちはリアリズム、マルチモダリティ、高忠実さのバランスを取ります。
DiffCompleteは2つの大規模3次元形状補完ベンチマークに新しいSOTA性能を設定する。
論文 参考訳(メタデータ) (2023-06-28T16:07:36Z) - Learning Physically Realizable Skills for Online Packing of General 3D
Shapes [41.27652080050046]
本研究では,不規則な3次元形状に対するオンラインパッキングスキルの学習課題について検討する。
目標は、任意の形状の3Dオブジェクトの連続を指定された容器に連続的に移動させることである。
我々は、物理力学と配置の制約を含む物理的実現性を考慮に入れている。
論文 参考訳(メタデータ) (2022-12-05T08:23:39Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。