論文の概要: Amodal 3D Reconstruction for Robotic Manipulation via Stability and
Connectivity
- arxiv url: http://arxiv.org/abs/2009.13146v1
- Date: Mon, 28 Sep 2020 08:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:40:55.971927
- Title: Amodal 3D Reconstruction for Robotic Manipulation via Stability and
Connectivity
- Title(参考訳): amodal 3d reconstruction for robot manipulation via stability and connectivity (特集 ロボットマニピュレーション)
- Authors: William Agnew, Christopher Xie, Aaron Walsman, Octavian Murad, Caelen
Wang, Pedro Domingos, Siddhartha Srinivasa
- Abstract要約: 学習に基づく3Dオブジェクト再構成により、3Dオブジェクトモデルの単一または少数ショット推定が可能となる。
既存の3D再構成技術は、通常、シャムファー距離またはボクセルIOUによって測定される視覚的再構成忠実度を最適化する。
本稿では,オブジェクト形状よりも先に安定性を導入するアモーダル3D再構成システムARMと,接続前の接続,マルチチャネル入力表現を提案する。
- 参考スコア(独自算出の注目度): 3.359622001455893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based 3D object reconstruction enables single- or few-shot
estimation of 3D object models. For robotics, this holds the potential to allow
model-based methods to rapidly adapt to novel objects and scenes. Existing 3D
reconstruction techniques optimize for visual reconstruction fidelity,
typically measured by chamfer distance or voxel IOU. We find that when applied
to realistic, cluttered robotics environments, these systems produce
reconstructions with low physical realism, resulting in poor task performance
when used for model-based control. We propose ARM, an amodal 3D reconstruction
system that introduces (1) a stability prior over object shapes, (2) a
connectivity prior, and (3) a multi-channel input representation that allows
for reasoning over relationships between groups of objects. By using these
priors over the physical properties of objects, our system improves
reconstruction quality not just by standard visual metrics, but also
performance of model-based control on a variety of robotics manipulation tasks
in challenging, cluttered environments. Code is available at
github.com/wagnew3/ARM.
- Abstract(参考訳): 学習に基づく3Dオブジェクト再構成により、3Dオブジェクトモデルの単一または少数ショット推定が可能となる。
ロボット工学にとってこれは、モデルに基づく手法が新しい物体やシーンに迅速に適応できる可能性を秘めている。
既存の3D再構成技術は、通常、シャムファー距離またはボクセルIOUによって測定される視覚的再構成忠実度を最適化する。
リアルで散らばったロボット環境に適用すると、これらのシステムは物理的リアリズムの低い再構成を発生し、モデルベース制御におけるタスク性能が低下することがわかった。
本研究では,(1)オブジェクト形状に先行する安定性,(2)接続先,(3)オブジェクト群間の関係を推論するマルチチャネル入力表現を導入するアモーダル3D再構成システムARMを提案する。
オブジェクトの物理的特性に対するこれらの先行性を利用することで、標準的な視覚メトリクスだけでなく、様々なロボット操作タスクにおけるモデルベース制御の性能も向上する。
コードはgithub.com/wagnew3/ARMで入手できる。
関連論文リスト
- Articulate-Anything: Automatic Modeling of Articulated Objects via a Vision-Language Foundation Model [35.184607650708784]
Articulate-Anythingは、テキスト、画像、ビデオを含む多くの入力モダリティから、多種多様な複雑なオブジェクトの明瞭化を自動化する。
本システムでは,メッシュ検索機構を通じて既存の3Dデータセットを,反復的に提案,評価,洗練を行うアクタ・クリティカル・システムとともに活用する。
論文 参考訳(メタデータ) (2024-10-03T19:42:16Z) - Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - Uncertainty-aware Active Learning of NeRF-based Object Models for Robot Manipulators using Visual and Re-orientation Actions [8.059133373836913]
本稿では,ロボットが対象物の完全な3次元モデルを高速に学習し,不慣れな方向で操作できるアプローチを提案する。
我々は、部分的に構築されたNeRFモデルのアンサンブルを用いて、モデルの不確実性を定量化し、次の動作を決定する。
提案手法は, 部分的NeRFモデルにより対象物をいつ, どのように把握し, 再指向するかを判断し, 相互作用中に導入された不整合を補正するために, 対象のポーズを再推定する。
論文 参考訳(メタデータ) (2024-04-02T10:15:06Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - Uncertainty-aware 3D Object-Level Mapping with Deep Shape Priors [15.34487368683311]
未知のオブジェクトに対して高品質なオブジェクトレベルマップを再構築するフレームワークを提案する。
提案手法では,複数のRGB-D画像を入力として,高密度な3次元形状と検出対象に対する9-DoFポーズを出力する。
2つの新たな損失関数を通して形状を伝播し不確実性を生じさせる確率的定式化を導出する。
論文 参考訳(メタデータ) (2023-09-17T00:48:19Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Fast-Image2Point: Towards Real-Time Point Cloud Reconstruction of a
Single Image using 3D Supervision [0.0]
3D再構成の問題は、3Dオブジェクトをモデル化するための機械やロボットの訓練方法である。
本研究では、より高速(リアルタイム)な単一視点画像で表示されたオブジェクトを再構築する際の現在の問題に対処する。
論文 参考訳(メタデータ) (2022-09-20T22:39:14Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。