論文の概要: Single RGB-D Camera Teleoperation for General Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2106.14396v1
- Date: Mon, 28 Jun 2021 05:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 00:05:46.697410
- Title: Single RGB-D Camera Teleoperation for General Robotic Manipulation
- Title(参考訳): 汎用ロボットマニピュレーションのための単一RGB-Dカメラ遠隔操作
- Authors: Quan Vuong, Yuzhe Qin, Runlin Guo, Xiaolong Wang, Hao Su, Henrik
Christensen
- Abstract要約: 人間のモーションキャプチャー装置として1台のRGB-Dカメラを用いた遠隔操作システムを提案する。
本システムでは, 布の折り畳み, 打抜き, 穴内の3mmクリアランスペグなど, 汎用的な操作を行うことができる。
- 参考スコア(独自算出の注目度): 25.345197924615793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a teleoperation system that uses a single RGB-D camera as the
human motion capture device. Our system can perform general manipulation tasks
such as cloth folding, hammering and 3mm clearance peg in hole. We propose the
use of non-Cartesian oblique coordinate frame, dynamic motion scaling and
reposition of operator frames to increase the flexibility of our teleoperation
system. We hypothesize that lowering the barrier of entry to teleoperation will
allow for wider deployment of supervised autonomy system, which will in turn
generates realistic datasets that unlock the potential of machine learning for
robotic manipulation. Demo of our systems are available online
https://sites.google.com/view/manipulation-teleop-with-rgbd
- Abstract(参考訳): 人間のモーションキャプチャー装置として1台のRGB-Dカメラを用いた遠隔操作システムを提案する。
本システムでは, 布の折り畳み, ハンマー加工, 3mmクリアランスペグなどの汎用的な操作を行うことができる。
遠隔操作システムの柔軟性を高めるために,非カルテ的斜め座標フレーム,動的運動スケーリング,演算子フレームの再配置を提案する。
遠隔操作への参入障壁を下げることで、監視された自律システムのより広い展開が可能になり、ロボット操作のための機械学習の可能性を解き放つ現実的なデータセットが生成されると仮定する。
私たちのシステムのデモは、https://sites.google.com/view/manipulation-teleop-with-rgbdで利用可能です。
関連論文リスト
- Ultra-Range Gesture Recognition using an RGB Camera in Human-Robot
Interaction [2.4036609880683586]
ジェスチャー認識の視覚的手法は,ユーザ・カメラ距離が7mまでしか有効でないことが示されている。
本稿では,シンプルなRGBカメラを用いたジェスチャー認識(URGR)のための新しいディープラーニングフレームワークを提案する。
このフレームワークは、超距離での人間の認識よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-26T17:27:26Z) - AnyTeleop: A General Vision-Based Dexterous Robot Arm-Hand Teleoperation
System [55.41979879667665]
ビジョンベースの遠隔操作は、人間レベルの知性をロボットに与え、環境と対話させる。
現在のビジョンベースの遠隔操作システムは、特定のロボットモデルとデプロイ環境に向けて設計・設計されている。
我々は、複数の異なる腕、手、現実、カメラ構成を単一のシステム内でサポートする、統一的で汎用的な遠隔操作システムであるAnyTeleopを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:11:07Z) - A Flexible Framework for Virtual Omnidirectional Vision to Improve
Operator Situation Awareness [2.817412580574242]
本稿では,ロボットのどこに設置した複数のカメラを融合させる新しい手法に基づいて,仮想プロジェクションのためのフレキシブルなフレームワークを提案する。
カメラ画像と幾何学的3Dライダーデータを融合させることでシーン理解を改善するための補完的なアプローチを提案し,色付き点雲を得る。
論文 参考訳(メタデータ) (2023-02-01T10:40:05Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - RGB-Only Reconstruction of Tabletop Scenes for Collision-Free
Manipulator Control [71.51781695764872]
世界のRGBビューのみを用いたロボットマニピュレータの無衝突制御システムを提案する。
テーブルトップシーンの知覚入力は、ロボットエンドエフェクタにハンドヘルドまたは装着されたRGBカメラの複数の画像によって提供される。
シーンの3次元形状を再構成するために、NeRFのようなプロセスが使用され、そこからユークリッド完全符号距離関数(ESDF)が計算される。
次に、モデル予測制御アルゴリズムを用いてマニピュレータを制御し、ESDFの障害物を避けながら所望のポーズに達する。
論文 参考訳(メタデータ) (2022-10-21T01:45:08Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Look Closer: Bridging Egocentric and Third-Person Views with
Transformers for Robotic Manipulation [15.632809977544907]
視覚フィードバックから精度に基づく操作タスクを解くことは、従来のロボットシステムに必要なエンジニアリング労力を大幅に削減する可能性がある。
ロボットの手首に装着した3人称カメラと自我中心カメラの両方から視覚フィードバックを受けるロボット操作のための設定を提案する。
また,両カメラの視覚情報を効果的に融合するために,クロスビューアテンション機構を備えたトランスフォーマーを提案する。
論文 参考訳(メタデータ) (2022-01-19T18:39:03Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Scene Editing as Teleoperation: A Case Study in 6DoF Kit Assembly [18.563562557565483]
遠隔操作によるシーン編集(SEaT)の枠組みを提案する。
ロボットを制御する代わりに、ユーザーはタスクのゴールを指定することに集中する。
ユーザは、ロボットハードウェアの専門知識を必要とせずに遠隔操作を行うことができる。
論文 参考訳(メタデータ) (2021-10-09T04:22:21Z) - A Mobile Robot Hand-Arm Teleoperation System by Vision and IMU [25.451864296962288]
本稿では,新しい視覚に基づく手ポーズ回帰ネットワーク(Transteleop)とIMUによる腕追跡手法を提案する。
Transteleopは低コストの深度カメラを通して人間の手を観察し、ペアのロボットハンドポーズの深度画像を生成する。
ウェアラブルカメラホルダは、同時ハンドアーム制御を可能にし、遠隔操作システム全体の移動を容易にする。
論文 参考訳(メタデータ) (2020-03-11T10:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。