論文の概要: Grasping Partially Occluded Objects Using Autoencoder-Based Point Cloud Inpainting
- arxiv url: http://arxiv.org/abs/2503.12549v1
- Date: Sun, 16 Mar 2025 15:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:33:17.083916
- Title: Grasping Partially Occluded Objects Using Autoencoder-Based Point Cloud Inpainting
- Title(参考訳): オートエンコーダをベースとしたポイント・クラウド・インペインティングによる部分集積物体のグラッピング
- Authors: Alexander Koebler, Ralf Gross, Florian Buettner, Ingo Thon,
- Abstract要約: 実世界のアプリケーションには、シミュレーションや実験室の設定でテストされたソリューションを把握できないような課題が伴うことが多い。
本稿では,欠落した情報を再構成するアルゴリズムを提案する。
本手法は,ロバストなオブジェクトマッチング手法を現実に活用し,点計算の把握に役立てる。
- 参考スコア(独自算出の注目度): 50.4653584592824
- License:
- Abstract: Flexible industrial production systems will play a central role in the future of manufacturing due to higher product individualization and customization. A key component in such systems is the robotic grasping of known or unknown objects in random positions. Real-world applications often come with challenges that might not be considered in grasping solutions tested in simulation or lab settings. Partial occlusion of the target object is the most prominent. Examples of occlusion can be supporting structures in the camera's field of view, sensor imprecision, or parts occluding each other due to the production process. In all these cases, the resulting lack of information leads to shortcomings in calculating grasping points. In this paper, we present an algorithm to reconstruct the missing information. Our inpainting solution facilitates the real-world utilization of robust object matching approaches for grasping point calculation. We demonstrate the benefit of our solution by enabling an existing grasping system embedded in a real-world industrial application to handle occlusions in the input. With our solution, we drastically decrease the number of objects discarded by the process.
- Abstract(参考訳): フレキシブル・インダストリアル・プロダクション・システムは、より高い製品識別とカスタマイズにより、製造の将来において中心的な役割を果たす。
このようなシステムの主要な構成要素は、未知または未知の物体をランダムな位置に掴むことである。
実世界のアプリケーションには、シミュレーションや実験室の設定でテストされたソリューションを把握できないような課題が伴うことが多い。
対象物の部分閉塞が最も顕著である。
隠蔽の例としては、カメラの視野における構造、センサーのインプレクション、あるいは製造プロセスによって互いに遮蔽する部分などが挙げられる。
これらすべてのケースにおいて、結果として得られる情報の欠如は、把握点を計算するのに欠点をもたらす。
本稿では,欠落した情報を再構成するアルゴリズムを提案する。
本手法は,ロバストなオブジェクトマッチング手法を現実に活用し,点計算の把握に役立てる。
実世界の産業アプリケーションに埋め込まれた既存の把握システムを,入力のオクルージョンを扱えるようにすることで,ソリューションの利点を実証する。
私たちのソリューションでは、プロセスによって破棄されるオブジェクトの数を劇的に削減します。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - Towards Cross-device and Training-free Robotic Grasping in 3D Open World [20.406334587479623]
本稿では,オープンワールドシナリオにおいて,学習を必要とせずにオブジェクト把握タスクを実行できる新しいパイプラインを提案する。
本稿では,セグメンテーション精度を向上し,未確認オブジェクトをクラスタ化およびローカライズする機能を有する,学習不要なバイナリクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T08:23:28Z) - Local Occupancy-Enhanced Object Grasping with Multiple Triplanar Projection [24.00828999360765]
本稿では,一般的な物体をロボットでつかむという課題に対処する。
提案したモデルはまず、シーン内で最も可能性の高いいくつかの把握ポイントを提案する。
各グリップポイントの周囲に、モジュールはその近傍にある任意のボクセルが空か、ある物体に占有されているかを推測するように設計されている。
モデルはさらに、局所占有力向上した物体形状情報を利用して、6-DoFグリップポーズを推定する。
論文 参考訳(メタデータ) (2024-07-22T16:22:28Z) - Rotating Features for Object Discovery [74.1465486264609]
本稿では,複雑な特徴を高次元に一般化した回転特徴と,分散表現からオブジェクトを抽出する新たな評価手法を提案する。
これらの進歩により、分散オブジェクト中心の表現を単純な玩具から現実世界のデータに拡張することが可能になります。
論文 参考訳(メタデータ) (2023-06-01T12:16:26Z) - Persistent Homology Meets Object Unity: Object Recognition in Clutter [2.356908851188234]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって難しい問題である。
本稿では,深度画像から生成された点雲のための新しい記述子TOPSと,人間の推論にインスパイアされた認識フレームワークTHORを提案する。
THORは両方のデータセットで最先端の手法より優れており、UW-IS Occludedデータセットのすべてのシナリオに対する認識精度が大幅に向上している。
論文 参考訳(メタデータ) (2023-05-05T19:42:39Z) - Ideal Abstractions for Decision-Focused Learning [108.15241246054515]
本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と,閉ループ山火事管理タスクの2つの領域で実証する。
論文 参考訳(メタデータ) (2023-03-29T23:31:32Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - Localization and Tracking of User-Defined Points on Deformable Objects
for Robotic Manipulation [0.0]
本稿では,変形可能なオブジェクトの表面上のユーザ定義点をローカライズする効率的な手法を提案する。
複数ステップの非線形ソルバパイプラインを用いて,実行時に推定される離散化変形場を提案する。
本手法は, 産業生産プロセスにおける非剛体物体の認識に最適であるように, データ並列方式でオンラインのローカライズ問題を解くことができる。
論文 参考訳(メタデータ) (2021-05-19T11:25:33Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。