論文の概要: Open Arms: Open-Source Arms, Hands & Control
- arxiv url: http://arxiv.org/abs/2205.12992v1
- Date: Fri, 20 May 2022 15:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 23:57:33.078975
- Title: Open Arms: Open-Source Arms, Hands & Control
- Title(参考訳): Open Arms: オープンソースアーム、ハンド&コントロール
- Authors: David Hanson, Alishba Imran, Gerardo Morales, Vytas Krisciunas, Aditya
Sagi, Aman Malali, Rushali Mohbe, Raviteja Upadrashta
- Abstract要約: Open Armsは、28 Degree-of-Freedomを備えた、リアルな人間のようなロボットハンドとアームハードウェアの、オープンソースのプラットホームだ。
本稿では, これらの手操作, 触覚, 機構, 審美設計, 製造と, 遠隔操作型看護ロボットによる実世界の応用について述べる。
- 参考スコア(独自算出の注目度): 0.6596280437011043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open Arms is a novel open-source platform of realistic human-like robotic
hands and arms hardware with 28 Degree-of-Freedom (DoF), designed to extend the
capabilities and accessibility of humanoid robotic grasping and manipulation.
The Open Arms framework includes an open SDK and development environment,
simulation tools, and application development tools to build and operate Open
Arms. This paper describes these hands controls, sensing, mechanisms, aesthetic
design, and manufacturing and their real-world applications with a teleoperated
nursing robot. From 2015 to 2022, we have designed and established the
manufacturing of Open Arms as a low-cost, high functionality robotic arms
hardware and software framework to serve both humanoid robot applications and
the urgent demand for low-cost prosthetics. Using the techniques of consumer
product manufacturing, we set out to define modular, low-cost techniques for
approximating the dexterity and sensitivity of human hands. To demonstrate the
dexterity and control of our hands, we present a novel Generative Grasping
Residual CNN (GGR-CNN) model that can generate robust antipodal grasps from
input images of various objects at real-time speeds (22ms). We achieved
state-of-the-art accuracy of 92.4% using our model architecture on a standard
Cornell Grasping Dataset, which contains a diverse set of household objects.
- Abstract(参考訳): open armsは、ヒューマノイドロボットの把持と操作の能力とアクセシビリティを拡張するために設計された28自由度(dof)のリアルな人間のようなロボットハンドとアームハードウェアの、新しいオープンソースプラットフォームである。
open armsフレームワークにはオープンsdkと開発環境、シミュレーションツール、オープンアームの構築と運用のためのアプリケーション開発ツールが含まれている。
本稿では,遠隔操作型看護ロボットを用いたハンズコントロール,センシング,機構,審美設計,製造,実世界への応用について述べる。
2015年から2022年にかけて、我々は、ヒューマノイドロボットアプリケーションと、低コストの義肢の緊急需要の両方に対応するために、低コストで高機能なロボットアームハードウェアおよびソフトウェアフレームワークとしてOpen Armsを設計、確立しました。
そこで我々は,消費者製品製造技術を用いて,人手の繊細さと感度を近似する,モジュール式で低コストな技術を定義した。
そこで本研究では,様々な物体の入力画像からのロバストな対脚把持をリアルタイム速度 (22ms) で生成できる新しい生成的把持残差cnn(ggr-cnn)モデルを提案する。
各種の家庭用オブジェクトを含む標準コーネルグレーピングデータセットのモデルアーキテクチャを用いて92.4%の最先端精度を実現した。
関連論文リスト
- AI-Powered Camera and Sensors for the Rehabilitation Hand Exoskeleton [0.393259574660092]
本研究は,障害者の手の動きを支援する視覚機能付きリハビリテーション・ハンド・エキソスケルトンを提案する。
設計目標は、トレーニングを必要とせずにシンプルなインターフェイスを利用できるツールを作ることだった。
論文 参考訳(メタデータ) (2024-08-09T04:47:37Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Knowledge-Driven Robot Program Synthesis from Human VR Demonstrations [16.321053835017942]
バーチャルリアリティ(VR)におけるヒューマンタスクの実演から実行可能なロボット制御プログラムを自動生成するシステムを提案する。
我々は、人間のVRデモを意味論的に解釈するために、常識知識とゲームエンジンに基づく物理を利用する。
ロボットショッピングアシスタントにおける力覚的フェッチ・アンド・プレイスという文脈でのアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-05T09:37:53Z) - HeRo 2.0: A Low-Cost Robot for Swarm Robotics Research [2.133433192530999]
本稿では、低コストで、既製の部品で組み立てが容易で、最もよく使われているロボットフレームワークであるROS(Robot Operating System)と深く統合されたSwarm Roboticsアプリケーションのための新しいプラットフォームの設計について述べる。
ロボットプラットフォームは完全にオープンで、3Dプリントされたボディとオープンソースソフトウェアで構成されている。
提案する移動ロボットは小ささとコストの削減から非常に効果的であり,Swarm Roboticsの研究・教育に適していることが実証された。
論文 参考訳(メタデータ) (2022-02-24T22:23:14Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - Future Frame Prediction for Robot-assisted Surgery [57.18185972461453]
本稿では,ロボット手術用ビデオシーケンスにおけるフレーム予測のためのtpg-vaeモデルを提案する。
コンテンツ配信に加えて、私たちのモデルは、手術ツールの小さな動きを処理するために斬新な運動分布を学習します。
論文 参考訳(メタデータ) (2021-03-18T15:12:06Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A Neuro-Symbolic Humanlike Arm Controller for Sophia the Robot [3.525119458424537]
本稿では,機械認識,畳み込みニューラルネットワーク,記号型AIを用いたロボットアームの設計と構築について概説する。
ロボットアームは、人間のような機械的な構成と美学で作られ、自由度28度、タッチセンサー、および一連の弾性アクチュエータが組み込まれています。
論文 参考訳(メタデータ) (2020-10-27T01:32:03Z) - Using Conditional Generative Adversarial Networks to Reduce the Effects
of Latency in Robotic Telesurgery [0.0]
手術では、どんなマイクロ遅延でも重傷を負い、場合によっては致命傷を負うことがある。
現在の外科用ロボットは、腕や道具の位置を測定するために校正されたセンサーを使用している。
本研究は、患者の組織に関するツール位置を測定するための、純粋に光学的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-07T13:40:44Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。