論文の概要: Amplifying robotics capacities with a human touch: An immersive
low-latency panoramic remote system
- arxiv url: http://arxiv.org/abs/2401.03398v1
- Date: Sun, 7 Jan 2024 06:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 19:01:19.254231
- Title: Amplifying robotics capacities with a human touch: An immersive
low-latency panoramic remote system
- Title(参考訳): 人間のタッチによるロボット能力の増幅:没入型低遅延パノラマ遠隔システム
- Authors: Junjie Li, Jian Xu, Dewei Han, Kang Li and Zhaoyuan Ma
- Abstract要約: アバター (Avatar) システムは, 没入型低遅延パノラマロボットインタラクションプラットフォームである。
良好なネットワーク条件下では,357msの遅延で低遅延高精細パノラマ視体験を達成できた。
このシステムは、キャンパス、州、国、大陸にまたがる広大な物理的な距離を遠隔操作できる。
- 参考スコア(独自算出の注目度): 16.97496024217201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI and robotics technologies have witnessed remarkable advancements in the
past decade, revolutionizing work patterns and opportunities in various
domains. The application of these technologies has propelled society towards an
era of symbiosis between humans and machines. To facilitate efficient
communication between humans and intelligent robots, we propose the "Avatar"
system, an immersive low-latency panoramic human-robot interaction platform. We
have designed and tested a prototype of a rugged mobile platform integrated
with edge computing units, panoramic video capture devices, power batteries,
robot arms, and network communication equipment. Under favorable network
conditions, we achieved a low-latency high-definition panoramic visual
experience with a delay of 357ms. Operators can utilize VR headsets and
controllers for real-time immersive control of robots and devices. The system
enables remote control over vast physical distances, spanning campuses,
provinces, countries, and even continents (New York to Shenzhen). Additionally,
the system incorporates visual SLAM technology for map and trajectory
recording, providing autonomous navigation capabilities. We believe that this
intuitive system platform can enhance efficiency and situational experience in
human-robot collaboration, and with further advancements in related
technologies, it will become a versatile tool for efficient and symbiotic
cooperation between AI and humans.
- Abstract(参考訳): aiとロボティクスのテクノロジーはこの10年で著しく進歩し、様々な分野の作業パターンや機会に革命をもたらした。
これらの技術の応用は社会を人間と機械の共生の時代へと駆り立ててきた。
本研究では,人間と知的ロボットの効率的なコミュニケーションを容易にするために,没入型低遅延パノラマロボットインタラクションプラットフォーム「アバター」を提案する。
我々はエッジコンピューティングユニット、パノラマビデオキャプチャ装置、バッテリー、ロボットアーム、ネットワーク通信機器と統合された頑丈なモバイルプラットフォームのプロトタイプを設計、テストした。
良好なネットワーク条件下では357msの遅延で低遅延高精細パノラマ視体験を達成できた。
オペレーターは、ロボットやデバイスのリアルタイム没入制御にvrヘッドセットとコントローラーを利用することができる。
このシステムは、キャンパス、州、国、さらには大陸(ニューヨークから深セン)にまたがる広大な物理的な距離を遠隔操作できる。
さらにこのシステムは、地図と軌道記録のための視覚的SLAM技術を導入し、自律的なナビゲーション機能を提供する。
この直感的なシステムプラットフォームは、人間とロボットのコラボレーションにおける効率性と状況経験を高め、関連する技術のさらなる進歩により、AIと人間との効率的で共生的な協力のための汎用的なツールになるだろうと考えています。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Open-TeleVision: Teleoperation with Immersive Active Visual Feedback [17.505318269362512]
Open-TeleVisionは、オペレーターが立体的にロボットの周囲を積極的に知覚することを可能にする。
このシステムは操作者の腕と手の動きをロボットに反映し、没入感のある体験を作り出す。
本システムの有効性は,長期的かつ正確な4つの課題に対して,データ収集と模倣学習ポリシーの訓練によって検証する。
論文 参考訳(メタデータ) (2024-07-01T17:55:35Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - AnyTeleop: A General Vision-Based Dexterous Robot Arm-Hand Teleoperation System [51.48191418148764]
ビジョンベースの遠隔操作は、人間レベルの知性をロボットに与え、環境と対話させる。
現在のビジョンベースの遠隔操作システムは、特定のロボットモデルとデプロイ環境に向けて設計・設計されている。
我々は、複数の異なる腕、手、現実、カメラ構成を単一のシステム内でサポートする、統一的で汎用的な遠隔操作システムであるAnyTeleopを提案する。
論文 参考訳(メタデータ) (2023-07-10T14:11:07Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - A Perspective on Robotic Telepresence and Teleoperation using Cognition:
Are we there yet? [0.0]
AI(Artificial Intelligence)革命がすでに始まっているため、さまざまなロボットアプリケーションが実現されています。
これらの技術は、医療、教育、監視、災害復旧、そして企業や政府部門において重要な応用例となる。
しかし、成熟度、セキュリティ、安全性についてはまだ疑問が残る。
論文 参考訳(メタデータ) (2022-03-06T13:10:00Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。