論文の概要: Controlled illumination for perception and manipulation of Lambertian
objects
- arxiv url: http://arxiv.org/abs/2304.11824v1
- Date: Mon, 24 Apr 2023 05:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 16:07:42.073494
- Title: Controlled illumination for perception and manipulation of Lambertian
objects
- Title(参考訳): ランゲル天体の知覚と操作のための制御照明
- Authors: Arkadeep Narayan Chaudhury and Christopher G. Atkeson
- Abstract要約: 照明の制御は、低計算コストで物体表面の正規性や深さの不連続性に関する高品質な情報を生成することができる。
我々は,ロボット操作のためのテーブルトップスケールオブジェクトに対して,高品質な情報を生成するロボットワークスペーススケール制御照明手法を実証する。
- 参考スコア(独自算出の注目度): 2.5223457224735615
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Controlling illumination can generate high quality information about object
surface normals and depth discontinuities at a low computational cost. In this
work we demonstrate a robot workspace-scaled controlled illumination approach
that generates high quality information for table top scale objects for robotic
manipulation. With our low angle of incidence directional illumination approach
we can precisely capture surface normals and depth discontinuities of
Lambertian objects. We demonstrate three use cases of our approach for robotic
manipulation. We show that 1) by using the captured information we can perform
general purpose grasping with a single point vacuum gripper, 2) we can visually
measure the deformation of known objects, and 3) we can estimate pose of known
objects and track unknown objects in the robot's workspace. Additional
demonstrations of the results presented in the work can be viewed on the
project webpage https://anonymousprojectsite.github.io/.
- Abstract(参考訳): 照明の制御は、低計算コストで物体表面の正規性や深さの不連続性に関する高品質な情報を生成することができる。
本研究では、ロボット操作のためのテーブルトップスケールオブジェクトの高品質な情報を生成するロボットワークスペーススケール制御照明手法を実証する。
入射方向照明アプローチの低い角度では、ランベルト天体の表面正規と深さの不連続性を正確に捉えることができる。
ロボット操作におけるアプローチのユースケースを3つ紹介する。
私たちはそれを示します
1) 取得した情報を用いて, 単一点真空グリッパーを用いて汎用的な把持を行うことができる。
2)既知の物体の変形を視覚的に測定し,
3)既知の物体のポーズを推定し,ロボットの作業空間内の未知物体を追跡することができる。
この成果のさらなるデモンストレーションは、プロジェクトwebページhttps://anonymousprojectsite.github.io/で見ることができる。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - ClearDepth: Enhanced Stereo Perception of Transparent Objects for Robotic Manipulation [18.140839442955485]
我々は透明物体の立体深度回復のための視覚変換器に基づくアルゴリズムを開発した。
提案手法は,効率的なデータ生成のためのパラメータ整合,ドメイン適応,物理的に現実的なSim2Realシミュレーションを含む。
実世界のシナリオにおけるSim2Realの例外的な一般化性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-09-13T15:44:38Z) - Incorporating dense metric depth into neural 3D representations for view synthesis and relighting [25.028859317188395]
ロボット応用では、密度の深い距離の深さをステレオで直接測定することができ、照明を制御できる。
本研究は,ニューラルネットワークによる3次元表現のトレーニングに高密度な距離深度を組み込む手法を実証する。
また、パイプラインに必要なデータを取得し、リライティングとビュー合成の結果を示すために開発されたマルチフラッシュステレオカメラシステムについても論じる。
論文 参考訳(メタデータ) (2024-09-04T20:21:13Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - ImageManip: Image-based Robotic Manipulation with Affordance-guided Next
View Selection [10.162882793554191]
ロボットが環境と対話するためには、3Dの関節による物体操作が不可欠である。
既存の多くの研究では、操作ポリシーの主要な入力として3Dポイントクラウドを使用している。
RGB画像は、コスト効率の良い装置を用いた高分解能な観察を提供するが、空間的3次元幾何学的情報は欠如している。
このフレームワークは、対象対象物の複数の視点を捉え、その幾何学を補完するために深度情報を推測するように設計されている。
論文 参考訳(メタデータ) (2023-10-13T12:42:54Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - Planning with Spatial-Temporal Abstraction from Point Clouds for
Deformable Object Manipulation [64.00292856805865]
空間抽象と時間抽象の両方を組み込んだ空間抽象型PlAnning(PASTA)を提案する。
我々のフレームワークは,高次元の3次元観測を潜時ベクトルの集合にマッピングし,潜時集合表現の上のスキルシーケンスを計画する。
本手法は,実世界のオブジェクト操作を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2022-10-27T19:57:04Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Tiny-YOLO object detection supplemented with geometrical data [0.0]
本研究では,シーン形状に関する事前知識の助けを借りて,検出精度(mAP)を向上させる手法を提案する。
我々は自律型ロボットに注目するので、ロボットの寸法とカメラの傾斜角を考えると、入力フレームの各ピクセルの空間スケールを予測することができる。
論文 参考訳(メタデータ) (2020-08-05T14:45:19Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。